172
Département d’Informatique THESE Présentée par : SALEM Mohammed Pour obtenir le diplôme de DOCTORAT EN SCIENCES Spécialité :Informatique et Automatique Thème Approches de l’intelligence artificielle pour la commande robuste des systèmes non linéaires Devant les membres du jury : Président : Rapporteur : Examinateur : Examinateur : Examinateur : Examinateur : Pr. B. YAGOUBI Pr. M.F KHELFI Pr. Y. LEBBAH Pr. Z. AHMED FOITIH Pr. A. LEHIRECHE Dr. W. NOUIBAT Professeur, Université d’Oran 1 Ahmed Ben Bella Professeur, Université d’Oran 1 Ahmed Ben Bella Professeur, Université d’Oran 1 Ahmed Ben Bella Professeur, USTO-MB Professeur, Université de Sidi-Bel-Abbes Maître de Conférences A, USTO-MB –2014–

Approches de l'intelligence artificielle pour la commande

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Approches de l'intelligence artificielle pour la commande

Département d’Informatique

THESE

Présentée par :

SALEM Mohammed

Pour obtenir le diplôme de

DOCTORAT EN SCIENCESSpécialité :Informatique et Automatique

Thème

Approches de l’intelligenceartificielle pour la commande

robuste des systèmes nonlinéaires

Devant les membres du jury :

Président :Rapporteur :Examinateur :Examinateur :Examinateur :Examinateur :

Pr. B. YAGOUBIPr. M.F KHELFIPr. Y. LEBBAHPr. Z. AHMED FOITIHPr. A. LEHIRECHEDr. W. NOUIBAT

Professeur, Université d’Oran 1 Ahmed Ben BellaProfesseur, Université d’Oran 1 Ahmed Ben BellaProfesseur, Université d’Oran 1 Ahmed Ben BellaProfesseur, USTO-MBProfesseur, Université de Sidi-Bel-AbbesMaître de Conférences A, USTO-MB

–2014–

Page 2: Approches de l'intelligence artificielle pour la commande

�o tho£e who  emind me that the power i¢ in �elieving�o tho£e who are lighting my way when I felt forsaken

�o tho£e who were beside me through my doubt¢ and confusion�n my anguish and frustration¢

... and they still�o my little familly

�o my parent¢

Page 3: Approches de l'intelligence artificielle pour la commande

Remerciements

« Oh, Voyageur !, les traces de tes pas sont le chemin.Il n’y a pas de chemin, le chemin se fait en marchant. »

Ces vers du poète Antonio Machado reflètent le mieux l’aboutissement de cette thèse qui n’était qu’une chimère

qui commençait à se concrétiser au passage des années.

En mettant les dernières retouches sur cet humble travail qui ne constitue qu’un pas dans un sentier parsemé

d’embûches et d’épines, je dois me rappeler des personnes qui ont participé de prés ou de loin pour que ce travail

voit le jour et qui m’ont soutenu et éclairé ma lanterne.

C’est avec un grand plaisir que je remercie mon directeur de thèse, le Professeur Mohamed Fayçal Khelfi.

Merci tout d’abord de m’avoir accepté en thèse et ensuite de m’avoir encadré pendant toutes ces interminables

années. Merci aussi pour votre patience, car il n’était pas toujours facile de diriger quelqu’un d’opiniâtre.J’ai

été extrêmement sensible à ses qualités humaines d’écoute et de compréhension tout au long de ce travail.

Toute ma gratitude va au Professeur Belabbes Yagoubi Doyen de la Faculté des Sciences Exactes et Appli-

quées de l’Université d’Oran pour m’avoir fait l’honneur en acceptant de présider le jury, je l’avoue, il continue

de m’étonner par sa disponibilité pour être à l’écoute depuis que je l’ai eu comme enseignant.

Je remercie également le Professeur Yahia Lebbah de l’Université d’Oran et Dr Wahid Nouibat de l’USTO

pour l’honneur qu’ils m’ont fait en acceptant de juger ce modeste travail.

Une mention spéciale pour le Professeur Zoubir Ahmed-Fouatih de l’USTO pour ses qualités humaines et

scientifiques, je n’ai jamais douté qu’il accepte de juger ce travail.

Je remercie profondément le professeur Ahmed Lehireche de l’Université de Sidi-Bel-Abbes, que la volonté

de Dieu a fait qu’il était l’un de mes enseignants dans la graduation à l’Université de Sidi-Bel-Abbes, dans le

Magister et aujourd’hui en étant l’examinateur de cette thèse.

Je suis reconnaissant au Docteur Fatima Debbat de l’université de Mascara, pour ses conseils toujours

avisés. Je suis par ailleurs toujours impressionné par sa disponibilité incroyable.. . .

Mes remerciements vont également à toute l’équipe Geneura de l’Universidad de Granada et en particulier

le Professeur Juan Julian Merelo et Dr Antonio Mora pour le temps qu’ils m’ont consacré au cours de mon

stage. Surtout, je remercie J.J de m’avoir fait profiter de son immense culture et de sa hauteur de vue. Il m’a

beaucoup appris surtout pour les tests statistiques.

Pour ne pas sombrer dans la nostalgie, je vais m’arrêter là et présenter toutes mes excuses aux personnes

que je n’ai pas mentionnées par leur nom dans ces quelques lignes. . .

Pour conclure, un grand merci à ma femme qui a assuré le soutien affectif de ce travail doctoral et qui y

croyais toujours même lorsque j’étais au fond du désespoir. Je ne saurai jamais la remercier !

3

Page 4: Approches de l'intelligence artificielle pour la commande

Résumé

La présente thèse est dédiée à l'application des techniques de l'intelligence computa-tionnelle a�n de palier aux limites de la commande sliding mode des systèmes non linéaires.En e�et, les réseaux de neurones à fonctions de bases radiales (RBF) sont utilisés pourestimer les paramètres du modèle dynamique et compenser les incertitudes.

Pour le développement d'un algorithme d'apprentissage des réseaux de neurones àbases radiales (RBF), nous avons opté en premier lieu pour les algorithme évolution-naires en considérant l'apprentissage d'un réseau de neurones RBF comme un problèmed'optimisation.

Pour y parvenir, nous avons amélioré deux algorithmes récents, l'algorithme d'opti-misation par colonie d'abeilles arti�cielles (ABC) et l'algorithme de l'optimisation baséesur la biogéographie (BBO) en les hybridant avec un modèle prédateur et proies (P&P)modi�é. Les deux algorithmes obtenus (PMBBO et ABC-PP) ont été validés par des testsstatistiques révélant ABC-PP comme le meilleur algorithme.

Bien que l'application de l'algorithme ABC-PP pour l'apprentissage des paramètresd'un pendule inversé dans une commande sliding mode ait donné de bons résultats, ellen'a pas pu satisfaire le test de robustesse (Perturbations et incertitudes).

Le deuxième algorithme développé est l'algorithme GAP-EKF qui est un algorithmed'apprentissage en ligne basé sur une stratégie de Growing and Pruning (GAP) pourcontrôler le nombre des neurones cachés (égal à 0 au début) et un �ltre de Kalman pourmodi�er les paramètres du réseau.

L'algorithme GAP-EKF est combiné à un contrôleur �ou dans une approche intel-ligente de commande slidng mode où GAP-EKF est utilisé pour calculer la commandeéquivalente tandis que la commande corrective est calculée par un contrôleur �ou.

L'approche proposée a été appliquée pour la commande d'un pendule inversé et ensuiteun robot manipulateur SCARA. Les résultats obtenus sont très satisfaisants même enprésence de perturbations et incertitudes.

Mots clés :Intelligence computationnelle, Commande sliding mode, Réseaux RBF, Colonie d'abeilles

arti�cielles, Optimisation basée sur la biogéographie, Commande PID, Prédateurs etproies, Apprentissage, Optimisation, Contrôleur �ou.

I

Page 5: Approches de l'intelligence artificielle pour la commande

Abstract

Sliding mode control is a robust control structure for nonlinear systems ; it has twomajor drawbacks, the model dependency (mainly in presence of uncertainties and dis-turbances) and the chattering phenomena. Computational intelligence methods are oftenused to solve these problems.

To �gure out the problem of model dependency, Radial basis functions neural networks(RBF) are used to estimate the model parameters but a performing training algorithm isneeded.

In this thesis, we will design �rst, an evolutionary based training algorithm. To achievethat, two optimization algorithms are enhanced ; Biogeography based optimization (BBO)and Arti�cial Bees Colony (ABC). The considered algorithms are combined with a mo-di�ed predator and prey model (P&P) to increase their diversi�cation. The obtainedalgorithms (PMBBO and ABC-PP) are validated and compared through a statisticaltests set where ABC-PP was the best one.

ABC-PP is used to train RBF neural network to design RBF based sliding modecontroller to control an inverted pendulum giving good results but not in presence ofdisturbances.

An online training algorithm (GAP-EKF) is then designed ; it is based on a growingand pruning strategy to add or delete nodes and an extended Kalman �lter (EKF) toadjust neural network parameters (weights, centers and widths). The online algorithmis integrated with fuzzy controller to design a Fuzzy-GAP-EKF sliding mode controlwhere GAP-EKF trained RBF is used to compute equivalent control and compensateuncertainties while the fuzzy controller outputs the sliding gain value to cancel chattering.

The resulted approach is applied to control an inverted pendulum and SCRA robotmanipulator. The obtained results are remarkable even with external disturbances anduncertainties.

Keywords :Learning algorithm, Optimization, RBF Neural networks, Sliding mode control, PID

control, Biogeography based optimization, Arti�cial bees colony, Predator and prey, Fuzzylogic.

II

Page 6: Approches de l'intelligence artificielle pour la commande

Table des matières

Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IAbstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IITable des matières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IIIListe des �gures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VIIIListe des tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XIListe des abréviations et symboles . . . . . . . . . . . . . . . . . . . . . . . . . . XIII

Introduction générale 11 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Contexte et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Objectifs et contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

3.1 Apprentissage des réseaux RBF par les algorithmes évolutionnaires 33.2 Apprentissage en ligne des réseaux de neurones RBF . . . . . . . . 4

4 Structure de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1 Techniques de l'intelligence computationnelle et ses applications dans lacommande 71 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1 Neurone formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.2 Propriétés des réseaux de neurones . . . . . . . . . . . . . . . . . . 8

2.2.1 Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . 82.2.2 Approximation parcimonieuse . . . . . . . . . . . . . . . . 9

2.3 Étapes de la conception d'un réseau de neurones . . . . . . . . . . . 102.3.1 Choix et préparation des échantillons . . . . . . . . . . . . 102.3.2 Élaboration de la structure du réseau . . . . . . . . . . . . 102.3.3 Apprentissage du réseau . . . . . . . . . . . . . . . . . . . 102.3.4 Validation et Test . . . . . . . . . . . . . . . . . . . . . . 11

2.4 Réseaux de neurones à fonctions de bases radiales . . . . . . . . . . 112.4.1 Apprentissage des réseaux de neurones RBF . . . . . . . . 122.4.2 Algorithmes d'apprentissage des réseaux RBF . . . . . . . 13

3 Logique �oue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.1 Généralités sur la logique �oue . . . . . . . . . . . . . . . . . . . . . 15

3.1.1 Variables linguistiques et ensembles �ous . . . . . . . . . . 153.1.2 Sous-ensembles �ous . . . . . . . . . . . . . . . . . . . . . 163.1.3 Fonction d'appartenance . . . . . . . . . . . . . . . . . . . 163.1.4 Base de règles �oues . . . . . . . . . . . . . . . . . . . . . 17

3.2 Système d'inférence �oue . . . . . . . . . . . . . . . . . . . . . . . . 173.2.1 Fuzzi�cation . . . . . . . . . . . . . . . . . . . . . . . . . 18

III

Page 7: Approches de l'intelligence artificielle pour la commande

Table des matières

3.2.2 Inférence �oue . . . . . . . . . . . . . . . . . . . . . . . . 183.2.3 Défuzzi�cation . . . . . . . . . . . . . . . . . . . . . . . . 18

3.3 Contrôleurs �ous . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.3.1 Méthode de Mamdani . . . . . . . . . . . . . . . . . . . . 193.3.2 Méthode de Takagi-Sugeno . . . . . . . . . . . . . . . . . 20

4 Optimisation et Algorithmes évolutionnaires . . . . . . . . . . . . . . . . . 204.1 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4.1.1 Dé�nition . . . . . . . . . . . . . . . . . . . . . . . . . . . 204.1.2 Problème d'optimisation . . . . . . . . . . . . . . . . . . . 20

4.2 Méthodes d'optimisation . . . . . . . . . . . . . . . . . . . . . . . . 224.2.1 Méthodes exactes . . . . . . . . . . . . . . . . . . . . . . . 224.2.2 Méthodes approchées . . . . . . . . . . . . . . . . . . . . . 234.2.3 Méthodes à base de voisinage . . . . . . . . . . . . . . . . 234.2.4 Méthodes à base de population . . . . . . . . . . . . . . . 244.2.5 Méthodes hybrides . . . . . . . . . . . . . . . . . . . . . . 24

5 Algorithmes évolutionnaires . . . . . . . . . . . . . . . . . . . . . . . . . . 255.1 Importance de la diversité . . . . . . . . . . . . . . . . . . . . . . . 255.2 Exploitation et exploration . . . . . . . . . . . . . . . . . . . . . . . 26

6 Commande des systèmes non linéaires . . . . . . . . . . . . . . . . . . . . . 276.1 Représentation des systèmes non-linéaires . . . . . . . . . . . . . . 276.2 Commande des systèmes . . . . . . . . . . . . . . . . . . . . . . . . 27

6.2.1 Commande proportionnelle, intégrale et dérivée . . . . . . 296.2.2 Commande sliding mode . . . . . . . . . . . . . . . . . . . 306.2.3 Limites de la commande sliding mode . . . . . . . . . . . 32

7 Intelligence computationnelle dans la commande sliding mode . . . . . . . 337.1 Application des réseaux de neurones dans la commande sliding mode 33

7.1.1 Architectures parallèles . . . . . . . . . . . . . . . . . . . 337.1.2 Réseaux de neurones pour l'adaptation des paramètres du

contrôleur . . . . . . . . . . . . . . . . . . . . . . . . . . . 367.2 Application de la logique �oue dans la commande sliding mode . . . 36

7.2.1 Approches indirectes . . . . . . . . . . . . . . . . . . . . . 367.2.2 Approches directes . . . . . . . . . . . . . . . . . . . . . . 38

7.3 Réglage des paramètres du contrôleur sliding mode avec les algo-rithmes génétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

7.4 Synthèse de l'utilisation des réseaux RBF pour la commande slidingmode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2 Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré 421 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 Optimisation basée sur la biogéographie . . . . . . . . . . . . . . . . . . . 43

2.1 Biogéographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.2 Optimisation et biogéographie . . . . . . . . . . . . . . . . . . . . . 44

2.2.1 Variable d'indice d'adéquation . . . . . . . . . . . . . . . . 452.2.2 Habitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.2.3 Population . . . . . . . . . . . . . . . . . . . . . . . . . . 452.2.4 Indice d'adéquation de l'habitat . . . . . . . . . . . . . . . 452.2.5 Taux d'immigration . . . . . . . . . . . . . . . . . . . . . 45

IV

Page 8: Approches de l'intelligence artificielle pour la commande

Table des matières

2.2.6 Taux d'émigration . . . . . . . . . . . . . . . . . . . . . . 452.3 Étapes de l'optimisation basée sur la biogéographie . . . . . . . . . 46

2.3.1 Initialisation . . . . . . . . . . . . . . . . . . . . . . . . . 462.3.2 Évaluation de la fonction HSI . . . . . . . . . . . . . . . . 472.3.3 Sélection . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.3.4 Opérateur de migration . . . . . . . . . . . . . . . . . . . 482.3.5 Opérateur de mutation . . . . . . . . . . . . . . . . . . . . 49

3 Modèle Prédateur et Proies . . . . . . . . . . . . . . . . . . . . . . . . . . 503.1 Origine du modèle prédateur et proies . . . . . . . . . . . . . . . . 503.2 Optimisation par le modèle prédateur et proies . . . . . . . . . . . . 50

4 Hybridation de l'algorithme BBO par le modèle prédateur et proies amélioré 514.1 Nouvel opérateur de migration . . . . . . . . . . . . . . . . . . . . . 524.2 Amélioration du modèle prédateur et proies . . . . . . . . . . . . . 52

5 Réglage d'un contrôleur PID par l'approche PMBBO . . . . . . . . . . . . 555.1 Choix des fonctions objectifs . . . . . . . . . . . . . . . . . . . . . . 55

5.1.1 Fonctions basées sur l'erreur . . . . . . . . . . . . . . . . . 555.1.2 Fonction globale . . . . . . . . . . . . . . . . . . . . . . . 56

5.2 Architecture d'optimisation adoptée . . . . . . . . . . . . . . . . . . 566 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

6.1 Application de l'algorithme PMBBO avec le système Masse-ressort-Amortisseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

6.2 Application de l'algorithme PMBBO avec le pendule inversé . . . . 606.3 Étude comparative de l'algorithme PMBBO . . . . . . . . . . . . . 61

7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3 Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré 651 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652 Optimisation par colonie d'abeilles arti�cielles . . . . . . . . . . . . . . . . 66

2.1 Intelligence bio-inspirée . . . . . . . . . . . . . . . . . . . . . . . . . 662.1.1 Auto-organisation . . . . . . . . . . . . . . . . . . . . . . 672.1.2 Division du travail . . . . . . . . . . . . . . . . . . . . . . 68

2.2 Modèle de comportement d'abeilles . . . . . . . . . . . . . . . . . . 682.2.1 Sources de nourriture . . . . . . . . . . . . . . . . . . . . . 682.2.2 Abeilles employées . . . . . . . . . . . . . . . . . . . . . . 682.2.3 Abeilles non employées . . . . . . . . . . . . . . . . . . . 69

2.3 Algorithme colonie d'abeilles arti�cielles . . . . . . . . . . . . . . . 702.4 Étapes de l'algorithme ABC . . . . . . . . . . . . . . . . . . . . . . 70

2.4.1 Phase des employées . . . . . . . . . . . . . . . . . . . . . 712.4.2 Phase des onlookers . . . . . . . . . . . . . . . . . . . . . 712.4.3 Phase des scouts . . . . . . . . . . . . . . . . . . . . . . . 72

2.5 Discussion sur l'algorithme ABC . . . . . . . . . . . . . . . . . . . 722.5.1 Avantages de l'algorithme ABC . . . . . . . . . . . . . . . 722.5.2 Limites de l'algorithme ABC . . . . . . . . . . . . . . . . 72

3 Colonie d'abeilles arti�cielles et prédateur et proies amélioré . . . . . . . . 734 Analyse statistique des algorithmes PMBBO et ABC-PP . . . . . . . . . . 74

4.1 Paramètres de l'expérimentation . . . . . . . . . . . . . . . . . . . . 754.2 Conditions d'utilisation des tests paramétriques . . . . . . . . . . . 774.3 Tests non-paramétriques . . . . . . . . . . . . . . . . . . . . . . . . 79

V

Page 9: Approches de l'intelligence artificielle pour la commande

Table des matières

4.3.1 Comparaisons par paires : Test de Wilcoxon signed ranks . 814.3.2 Comparaison multiple avec une méthode de contrôle . . . 824.3.3 Procédures Post-hoc . . . . . . . . . . . . . . . . . . . . . 85

4.4 Estimation du contraste . . . . . . . . . . . . . . . . . . . . . . . . 925 Réglage d'un contrôleur PID par l'approche ABC-PP . . . . . . . . . . . . 936 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

4 Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP 971 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 972 Apprentissage des réseaux RBF par les algorithmes évolutionnaires . . . . 98

2.1 Classi�cation des approches d'apprentissage . . . . . . . . . . . . . 982.2 Travaux antérieurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

3 Approximation des fonctions par les réseaux RBF . . . . . . . . . . . . . . 1003.1 Approximation des fonctions . . . . . . . . . . . . . . . . . . . . . . 1003.2 Approximation des fonctions par les réseaux RBF . . . . . . . . . . 100

4 Approche d'apprentissage des réseaux RBF par l'algorithme ABC-PP . . . 1014.1 Analyse statistique de l'apprentissage des réseaux RBF par les al-

gorithmes évolutionnaires . . . . . . . . . . . . . . . . . . . . . . . 1024.1.1 Test de Wilcoxon signed ranks . . . . . . . . . . . . . . . 1054.1.2 Estimation du Contraste . . . . . . . . . . . . . . . . . . . 105

5 Commande sliding mode par l'approche RBF-ABC-PP . . . . . . . . . . . 1065.1 Architecture proposée . . . . . . . . . . . . . . . . . . . . . . . . . 1065.2 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.2.1 Apprentissage du réseau RBF . . . . . . . . . . . . . . . . 1075.2.2 Application à la commande sliding mode . . . . . . . . . . 1095.2.3 Test de robustesse . . . . . . . . . . . . . . . . . . . . . . 111

6 Analyse, critiques et motivations pour le chapitre suivant . . . . . . . . . . 114

5 Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF 1161 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1162 Approche GAP-EKF pour l'apprentissage des réseaux de neurones RBF . . 117

2.1 In�uence d'un neurone . . . . . . . . . . . . . . . . . . . . . . . . . 1182.2 Critère de croissance (Growing Criterion) . . . . . . . . . . . . . . . 1182.3 Ajustement des paramètres du réseau par l'algorithme EKF . . . . 1202.4 Critère d'élagage (Pruning Criterion) . . . . . . . . . . . . . . . . . 120

3 Approche GAP-EKF-Floue pour la commande sliding mode des systèmesnon linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1213.1 Commande Équivalente RBF-GAP-EKF . . . . . . . . . . . . . . . 1213.2 Commande Corrective �oue . . . . . . . . . . . . . . . . . . . . . . 122

3.2.1 Entrées du contrôleur �ou . . . . . . . . . . . . . . . . . . 1223.2.2 Sortie du contrôleur �ou . . . . . . . . . . . . . . . . . . . 1233.2.3 Système d'inférence . . . . . . . . . . . . . . . . . . . . . 124

4 Résultats des simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . 1254.1 Application au pendule inversé . . . . . . . . . . . . . . . . . . . . 1254.2 Application au robot manipulateur SCARA . . . . . . . . . . . . . 129

5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

VI

Page 10: Approches de l'intelligence artificielle pour la commande

Bibliographie

Conclusion générale 135

Bibliographie 139

Annexes 151

A Systèmes non linéaires utilisés 1521 Système masse ressort amortisseur . . . . . . . . . . . . . . . . . . . . . . . 1522 Pendule inversé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1523 Robots manipulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

VII

Page 11: Approches de l'intelligence artificielle pour la commande

Liste des �gures

1 Navigation à travers la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1 Modèle de base d'un neurone formel. . . . . . . . . . . . . . . . . . . . . . 81.2 Architecture d'un réseau RBF. . . . . . . . . . . . . . . . . . . . . . . . . . 121.3 Fonction gaussienne du réseau RBF. . . . . . . . . . . . . . . . . . . . . . 131.4 Partition �oue de la variable linguistique "Température". . . . . . . . . . . 151.5 Formes usuelles des fonctions d'appartenance. . . . . . . . . . . . . . . . . 171.6 Structure interne d'un système d'inférence �oue. . . . . . . . . . . . . . . . 181.7 Optimum local et global d'une fonction. . . . . . . . . . . . . . . . . . . . 221.8 Classi�cation des méta-heuristiques. . . . . . . . . . . . . . . . . . . . . . . 241.9 Principe général d'un algorithme évolutionnaire. . . . . . . . . . . . . . . . 261.10 Bloc de commande d'un système non linéaire. . . . . . . . . . . . . . . . . 291.11 Architecture d'un contrôleur PID. . . . . . . . . . . . . . . . . . . . . . . . 291.12 Schéma de la commande sliding mode. . . . . . . . . . . . . . . . . . . . . 311.13 Exemple de chattering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331.14 Architecture neuro-sliding mode control (Ertugrul and Kaynak, 2000). . . . 341.15 Architecture proposée par (Jezernik et al., 1997). . . . . . . . . . . . . . . 351.16 Architecture proposée par (Kim and Oh, 1995). . . . . . . . . . . . . . . . 351.17 Architecture proposée par (Karakasoglu and Sundareshan, 1995). . . . . . 36

2.1 Migration des espèces (Simon, 2008) . . . . . . . . . . . . . . . . . . . . . 442.2 Organigramme général de l'algorithme BBO . . . . . . . . . . . . . . . . . 462.3 Illustration de deux solutions candidates S1 et S2 . . . . . . . . . . . . . . 492.4 Exemples des prédateurs et proies. . . . . . . . . . . . . . . . . . . . . . . 502.5 Modèle prédateur et proie. . . . . . . . . . . . . . . . . . . . . . . . . . . 512.6 Algorithme PMBBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.7 Modèle prédateur et proies amélioré. . . . . . . . . . . . . . . . . . . . . . 542.8 Application de l'algorithme PMBBO pour le réglage des paramètres du PID. 572.9 Évolution des meilleures HSI par PMBBO Masse ressort amortisseur. . . 582.10 Évolution des mauvaises HSI par PMBBO, Masse ressort amortisseur. . . 582.11 Évolution des gains du PID par PMBBO, Masse ressort amortisseur. . . . 592.12 Positions réelle et désirée du Masse ressort amortisseur par PMBBO. . . . 592.13 Erreurs en position du Masse ressort amortisseur par PMBBO. . . . . . . 592.14 Évolution des meilleures HSI de la PMBBO avec un pendule inversé). . . 602.15 Évolution des gains du PID pour la PMBBO avec un pendule inversé. . . 612.16 Erreurs en position angulaire θ par la PMBBO avec un pendule inversé). . 612.17 Erreurs en position angulaire(étude comparative du PMBBO). . . . . . . . 63

3.1 Exemples d'essaim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

VIII

Page 12: Approches de l'intelligence artificielle pour la commande

Liste des �gures

(a) Fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67(b) Abeilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67(c) Oiseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3.2 Source de nourriture. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 683.3 Abeille employée exploitant une source de nourriture. . . . . . . . . . . . . 693.4 Un onlooker tente d'améliorer une source de nourriture. . . . . . . . . . . . 693.5 Danse frétillante des abeilles. . . . . . . . . . . . . . . . . . . . . . . . . . . 703.6 AlgorithmeABC-PP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743.7 Procédure de l'analyse statistique . . . . . . . . . . . . . . . . . . . . . . . 753.8 Résultats des procédures post-hoc, Test de Friedman . . . . . . . . . . . . 913.9 Résultats des procédures post-hoc, Test de Friedman Aligned . . . . . . . . 913.10 Résultats des procédures post-hoc, Test de Quade . . . . . . . . . . . . . . 913.11 Valeurs minimales de la fonction objectif obtenues par ABC-PP et les AG) 943.12 Évolution des gains PID obtenus par ABC-PP . . . . . . . . . . . . . . . . 943.13 Erreurs angulaires obtenues par ABC-PP et les AG . . . . . . . . . . . . . 95

4.1 Procédure d'apprentissage des réseaux RBF par l'algorithme ABC-PP . . . 1024.2 Architecture de la commande équivalente par réseau RBF et ABC-PP. . . 1074.3 Commande Sliding mode par les réseaux RBF et ABC-PP . . . . . . . . . 1074.4 Base d'apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1084.5 Évolution de l'erreur d'apprentissage pour ABC-PP et rétro-propagation . 1094.6 Positions angulaires désirée et réelles (ABC-PP et rétro-propagation) . . . 1104.7 Erreurs Angulaires e(t) (ABC-PP et rétro-propagation ) . . . . . . . . . . 1104.8 Erreur de f(x) pendant la commande sliding mode(ABC-PP et rétro-

propagation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1104.9 Erreur de g(x) pendant la commande sliding mode (ABC-PP et rétro-

propagation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1114.10 Signal de commande sliding mode (ABC-PP-RBF) . . . . . . . . . . . . . 1114.11 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1124.12 Erreur d'estimation de la fonction f(x) avec bruit . . . . . . . . . . . . . . 1124.13 Erreur d'estimation de la fonction g(x) avec bruit . . . . . . . . . . . . . . 1134.14 Erreur angulaire de la commande sliding mode (ABC-PP-RBF) avec bruit 1134.15 Sortie du contrôleur sliding mode (ABC-PP-RBF) avec bruit . . . . . . . . 113

5.1 Organigramme de l'algorithme GAP-EKF. . . . . . . . . . . . . . . . . . . 1195.2 Approche GAP-EKF-Floue dans la commande sliding mode. . . . . . . . . 1215.3 Fonctions d'appartenance de la variable d'entrée s . . . . . . . . . . . . . . 1235.4 Fonctions d'appartenance de la variable d'entrée s . . . . . . . . . . . . . . 1235.5 Fonctions d'appartenance de la variable de sortie K . . . . . . . . . . . . . 1245.6 Surface de la sortie du contrôleur �ou K . . . . . . . . . . . . . . . . . . . 1255.7 Positions désirée et réelle du pendule inversé par GAP-EKF-Floue . . . . . 1275.8 Erreur de poursuite de la position angulaire par GAP-EKF-Floue . . . . . 1275.9 Erreur d'estimation de la fonction f(θ, θ) par GAP-EKF-Floue . . . . . . . 1275.10 Erreur d'estimation de la fonction g(θ, θ) par GAP-EKF-Floue . . . . . . . 1285.11 Évolution du nombre des neurones du réseau RBF . . . . . . . . . . . . . . 1285.12 Signal de commande pour le pendule inversé par GAP-EKF-Floue . . . . . 1285.13 Valeurs du gains K, pendule inversé avec GAP-EKF-Floue . . . . . . . . . 1295.14 Erreur d'estimation de la matrice M par GAP-EKF-Flou . . . . . . . . . . 1315.15 Erreur d'estimation de la matrice C par GAP-EKF-Flou . . . . . . . . . . 131

IX

Page 13: Approches de l'intelligence artificielle pour la commande

Liste des �gures

5.16 Erreur d'estimation du vecteur du frottement F par GAP-EKF-Flou . . . . 1325.17 Positions des 3 articulations par GAP-EKF-Floue . . . . . . . . . . . . . . 1325.18 Erreurs de poursuite des 3 articulations par GAP-EKF-Floue . . . . . . . . 1325.19 Signaux de commande des 3 articulations par GAP-EKF-Floue . . . . . . . 1335.20 Sorties du contrôleurs �ous (gains K) par GAP-EKF-Floue . . . . . . . . . 1335.21 Résumé des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

A.1 Système masse ressort amortisseur. . . . . . . . . . . . . . . . . . . . . . . 152A.2 Pendule inversé simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153A.3 Robot manipulateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

X

Page 14: Approches de l'intelligence artificielle pour la commande

Liste des tableaux

1.1 Paramètres du PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.2 Synthèse des approches sliding mode avec réseaux RBF. . . . . . . . . . . 40

2.1 Méta-heuristiques pour l'optimisation d'un PID . . . . . . . . . . . . . . . 432.2 Terminologie de la BBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.3 Paramètres de la BBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.4 Paramètres de la PMBBO, Masse ressort amortisseur . . . . . . . . . . . . 582.5 Paramètres de la PMBBO, pendule inversé . . . . . . . . . . . . . . . . . 602.6 Paramètres de BBO, MBBO et PMBBO pour la comparaison. . . . . . . . 622.7 Paramètres des algorithmes génétiques(AG) pour la comparaison . . . . . . 622.8 Coûts minimums des 10 exécutions pour les algorithmes AG, BBO, MBBO

et PMBBO (fg). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632.9 Performances du pendule inversé avec PID, étude comparative de la PMBBO 63

3.1 Paramètres de l'algorithme ABC . . . . . . . . . . . . . . . . . . . . . . . 713.2 Paramètres des algorithmes PMBBO et ABC-PP . . . . . . . . . . . . . . 773.3 Moyennes de l'erreur pour les 28 fonctions benchmark. . . . . . . . . . . . 783.4 Tests de normalité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 793.5 Test de hétéroscedasticité de Levene. . . . . . . . . . . . . . . . . . . . . . 803.6 Résultats du test de Wilcoxon. . . . . . . . . . . . . . . . . . . . . . . . . . 823.7 Rangs moyens des tests Friedman, Aligned Friedman et Quade . . . . . . 853.8 p-values Ajustées pour les procédures post-hoc . . . . . . . . . . . . . . . . 893.9 Seuils de rejet des procédures . . . . . . . . . . . . . . . . . . . . . . . . . 903.10 Estimation du Contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 933.11 Paramètres de ABC-PP pour l'optimisation d'un PID . . . . . . . . . . . . 943.12 Performance du pendule inversé contrôlé par PID (ABC-PP et les AG) . . 95

4.1 Paramètres des algorithmes PMBBO, ABC et ABC�PP pour l'apprentis-sage des réseaux RBF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4.2 Paramètres des algorithmes Génétiques pour l'apprentissage hors ligne desréseau RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4.3 Valeurs moyennes du critère J pour les 10 fonctions . . . . . . . . . . . . . 1044.4 Résultats du test Wilcoxon pour l'apprentissage des réseaux RBF . . . . . 1054.5 Résultats du test d'estimation du contraste pour l'apprentissage des réseaux

RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1064.6 Paramètres des algorithmes ABC-PP et rétro-propagation . . . . . . . . . 108

5.1 Règles du contrôleur �ou . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1245.2 Paramètres de l'algorithme d'apprentissage GAP-EKF . . . . . . . . . . . 126

XI

Page 15: Approches de l'intelligence artificielle pour la commande

Liste des tableaux

5.3 Paramètres de l'algorithme d'apprentissage GAP-EKF pour les 3 réseauxRBFM, RBFC et RBFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

5.4 Erreurs d'estimation des 3 réseaux RBF par GAP-EKF. . . . . . . . . . . 133

XII

Page 16: Approches de l'intelligence artificielle pour la commande

Liste des abréviations et symboles

.b Meilleure solution (PMBBO et ABC-PP)

.pred prédateur (PMBBO et ABC-PP)

α Niveau de signi�cation d'un test

α(x) Valeur de vérité d'une règle �oue

y Sortie d'un réseau de neurones

κ Facteur de chevauchement(GAP-EKF)

λ Pente de la surface de glissement

λi Taux d'immigration d'un habitat (BBO)

µ Centre d'une fonction gaussienne

µi Taux d'émigration d'un habitat (BBO)

Φ Fonction d'activation d'un réseau RBF

ρ Taux de chasse

σ Largeur d'une fonction gaussienne

θ Angle du pendule inversé

a Poids du réseau de neurones

cmax Nombre maximum de cycles (ABC)

d(t) Perturbations externes

e Erreur de suivi

gmax Nombre maximum de générations (BBO)

H Habitat (BBO)

I Matrice d'identité

Kd Gain dérivé d'un PID

Ki Gain intégral d'un PID

Kp Gain proportionnel d'un PID

m La masse de la tige d'un pendule inversé

M(q) Matrice d'inertie d'un robot

mi Probabilité de mutation (BBO)

mmax Taux maximum de mutation (BBO)

Nx Nombre d'entrées d'un réseau de neurones

Ny Nombre de sorties d'un réseau de neurones

npred Nombre de prédateurs

XIII

Page 17: Approches de l'intelligence artificielle pour la commande

Liste des abréviations et symboles

Omax Dépassement maximal

Pi Probabilité d'existence (BBO)

Pmax Probabilité maximale d'existence (BBO)

q(t) Position angulaire d'une articulation d'un robot

s Surface de glissement

sn Source de nourriture (ABC)

Tm Temps de montée d'un système

Tr Temps de réponse d'un système

u(t) Signal de commande

UA(x) Fonction d'appartenance d'une variable �oue

uc(t) Commande corrective de la sliding mode

ueq(t) Commande équivalente de la sliding mode

x Entrée d'un réseau

x(t) Vecteur d'état

xd(t) État désirée

y(t) Sortie d'un système ou d'une fonction

ABC Arti�cial Bees Colony

ABC-PP Arti�cial Bees Colony-Predator and Prey

ACO Ant Colony Optimization

AG Algorithmes génétiques

BBO Biogeography Based Optimization

DE Di�erential Evolution

EKF Extended Kalman Filter

FL Fuzzy Logic

FWER Family-Wise Error Rate

GAP Growing and Pruning

HSI Habitat Suitability Index

MBBO Modi�ed Biogeography Based Optimization

P&P Predator and Prey

PD Proportionnelle et dérivée

PID Proportionnelle, intégrale et dérivée

PMBBO Predator and Prey Modi�ed Biogeography Based Optimization

PSO Particle Swarm Optimization

RAN Ressource Allocation Network

RANEKF RAN extended Kalman Filter

RBF réseau à fonctions de bases radiales

SIV Suitability Index variable

XIV

Page 18: Approches de l'intelligence artificielle pour la commande

Introduction générale

1 Introduction

Les méthodes classiques de l'automatique ont été largement appliquées à de nombreux

problèmes de régulation industrielle. Cependant, la plupart des systèmes physiques pré-

sentent des non linéarités et leurs paramètres sont souvent mal connus et/ou variables

dans le temps (Lewis et al., 1993).

Pour la commande de telles classes de systèmes, les méthodes conventionnelles de

l'automatique ont montré leurs limites en termes de stabilisation et de performances.

Avec le développement considérable des calculateurs numériques, les automaticiens ont

adopté de plus en plus de nouvelles approches telles que la commande prédictive et la

commande robuste (Slotine and Li, 1991).

Lorsque les systèmes commandés sont soumis à des perturbations et à des variations

de paramètres, la commande en mode glissant (Sliding Mode Control) apparaît comme

une bonne solution permettant d'assurer la robustesse, la haute précision, la bonne sta-

bilité et la simplicité pour les systèmes perturbés. Néanmoins, cette solution présente

l'inconvénient de nécessiter une estimation du modèle du système en temps réel.

Les avancées récentes en informatique ont permis l'apparition d'outils intelligents

comme les réseaux de neurones et la logique �oue. Ces outils sont regroupés sous le

concept de l'intelligence computationnelle. Cette dernière est un domaine de l'informa-

tique qui étudie les mécanismes d'adaptation qui permettent un comportement intelligent

dans des environnements changeants (Kusiak, 2000). Elle se concentre sur les modèles

informatiques des systèmes biologiques et d'intelligence naturelle, depuis l'intelligence des

essaims, les systèmes �ous, les réseaux de neurones arti�ciels, les systèmes immunitaires

arti�ciels et la computation évolutive. Elle fournit des algorithmes de paradigmes pour

résoudre des problèmes complexes du monde réel comme l'approximation des paramètres

des systèmes non linéaires (Engelbrecht, 2003).

2 Contexte et problématique

Les réseaux de neurones en général et les réseaux à fonctions de bases radiales (RBF)

en particulier, sont de puissants approximateurs de fonctions à condition de trouver la

1

Page 19: Approches de l'intelligence artificielle pour la commande

Introduction générale

bonne combinaison des paramètres et la bonne architecture. Ce réglage est réalisé par les

algorithmes d'apprentissage (Haykin, 1999).

L'apprentissage des réseaux de neurones à fonctions de bases radiales peut être consi-

déré comme un problème d'optimisation où sa résolution consiste à trouver la ou les

meilleures solutions véri�ant un ensemble de contraintes et d'objectifs dé�nis par l'uti-

lisateur. Il est nécessaire que le problème introduise un critère de comparaison pour dé-

terminer si une solution est meilleure qu'une autre. Ainsi, la meilleure solution, appelée

aussi solution optimale ou l'optimum, est la solution ayant obtenu la meilleure évaluation

au regard du critère dé�ni. Les problèmes d'optimisation sont des problèmes complexes

et donc ne possèdent pas, à ce jour, un algorithme général permettant de les résoudre

en un temps polynomial. Ce problème de l'explosion combinatoire limite l'utilisation des

méthodes exactes à la résolution des problèmes de petites tailles. Dans le cas contraire,

comme il est souvent le cas pour les applications réelles, les méthodes approchées et

en particulier, les méta-heuristiques sont devenues une alternative intéressante (Mitchell,

1998).

Les algorithmes évolutionnaires sont des méta-heuristiques d'inspiration biologique

basés sur la sélection naturelle néo-Darwinienne. Ils génèrent une population de solutions

candidates et tentent d'évoluer en appliquant des opérateurs d'évolution et la meilleure

solution est celle qui a la valeur optimale d'une fonction objectif. Ils sacri�ent souvent la

complétude pour gagner de l'e�cacité. Parmi ces méta-heuristiques, nous pouvons citer

l'optimisation basée sur la biogéographie (BBO) et la colonie d'abeilles arti�cielles (ABC).

Ces algorithmes procèdent par l'exploration de plusieurs zones de l'espace de recherche

et l'exploitation des zones prometteuses en intensi�ant la recherche dans leurs voisinages.

Le problème de ces algorithmes est de trouver un compromis entre l'intensi�cation des

recherches et la diversi�cation (Paschos, 2005).

3 Objectifs et contributions

Pour remédier aux problèmes de la commande sliding mode à savoir, la nécessité

de connaitre à priori les paramètres du modèle, nous proposons d'utiliser les réseaux

de neurones à fonctions de bases radiales comme approximateurs. Reste à choisir un

algorithme d'apprentissage adéquat et robuste dû à la nature dynamique et variante du

domaine d'application souhaité.

Dans cette thèse, nous avons ÷uvré en deux axes parallèles pour concevoir deux ap-

proches de commande sliding mode à base des réseaux de neurones RBF, la première

repose sur un algorithme d'apprentissage hors ligne par les algorithmes d'optimisation

évolutionnaire, tandis que la deuxième utilise un algorithme d'apprentissage en ligne et

un contrôleur �ou.

2

Page 20: Approches de l'intelligence artificielle pour la commande

Introduction générale

3.1 Apprentissage des réseaux RBF par les algorithmes évolu-

tionnaires

Dans ce volet, et a�n d'implémenter un algorithme d'apprentissage hors ligne en uti-

lisant les algorithmes évolutionnaires, nous avons travaillé avec deux algorithmes récents,

l'optimisation basée sur la biogéographie (BBO) et la colonie d'abeilles arti�cielles (ABC).

Pour utiliser ces deux algorithmes dans l'apprentissage des réseaux de neurones RBF,

nous devons accroître leur potentiel de diversi�cation pour éviter qu'ils soient piégés dans

des minima locaux.

La solution proposée dans cette thèse est de procéder à l'hybridation des deux algo-

rithmes avec une méthode naturelle assurant la diversi�cation : le modèle prédateur et

proies. Ceci a conduit aux contributions suivantes :

A) Application de l'optimisation basée sur la biogéographie pour l'optimisation des

paramètres d'un contrôleur PID :

L'algorithme BBO a été utilisé pour trouver la combinaison optimale des gains d'un

contrôleur PID pour le pendule inversé, les performances obtenues ont été comparées

avec celles des algorithmes génétiques.

Cette application a fait l'objet d'une communication internationale.

• Salem, M. and Khel�, M. F. (2012). Application of biogeography based optimization in tuning a

PID controller for nonlinear systems. In : IEEE International Conference on Complex Systems

(ICCS), Agadir , Morocco.

B) Amélioration du modèle Prédateur et proies :

Avant d'utiliser le modèle prédateur et proies pour augmenter la diversi�cation des

algorithmes BBO et ABC, nous l'avons amélioré en introduisant les modi�cations

suivantes :

i) Considération de plusieurs prédateurs au lieu d'un.

ii) Considération des meilleures solutions pou créer ls prédateurs.

iii) Déplacement des proies vers des emplacements aléatoires.

iv) Utilisation d'un taux de chasse variable.

C) Hybridation de l'algorithme d'optimisation basée sur la biogéographie (BBO) par

le modèle prédateur et proies amélioré :

Dans l'algorithme BBO classique, Nous avons procédé à la modi�cation de l'opéra-

teur de Migration et remplacé la mutation par le modèle prédateur et proies amélioré

donnant lieu à un nouvel algorithme hybride PMBBO.

Cette étape a été valorisée par les deux publications suivantes :

• Salem, M. and Khel�, M. F. (2014a). Optimization of nonlinear controller with an enhanced

biogeography approach. An International Journal of Optimization and Control : Theories &

Applications, 4(2) :77-87.

3

Page 21: Approches de l'intelligence artificielle pour la commande

Introduction générale

• Salem, M. and Khel�, M. F. (2014b). Predator and prey modi�ed biogeography based opti-

mization approach (PMBBO) in tuning a PID controller for nonlinear systems. International

Journal of Intelligent Systems and Applications(IJISA), 6(11) :12-20.

D) Amélioration de la colonie d'abeilles arti�cielles par le modèle prédateur et proies

amélioré.

Nous avons essayer d'accroître la diversi�cation de l'algorithme ABC en remplaçant

la phase des scouts par le modèle prédateur et proie amélioré. L'algorithme obtenu

ABC-PP a été appliqué pour optimiser un contrôleur PID donnant des résultats

meilleurs que les algorithmes génétiques. Il a été validé par une communication

internationale :

• Salem, M. and Khel�, M. F. (2013). Nonlinear inverted pendulum PID control by an improved

arti�cial bees colony-predator and prey approach. In 3rd IEEE International Conference on

Systems and Control ICSC13, Algiers, Algeria.

E) Analyse statistique des algorithmes PMBBO et ABC-PP pour le problème d'opti-

misation des fonctions :

Pour choisir l'algorithme le plus adapté des deux, nous avons e�ectué une comparai-

son des algorithmes PMBBO et ABC-PP avec quatre algorithmes évolutionnaires

récents issus de la compétition CEC2013 (Congress on Evolutionary Computation).

La comparaison a été appuyée par une une analyse statistique avec une panoplie de

tests paramétriques et non-paramétriques.

F) Commande sliding mode par les réseaux de neurones RBF : Après qu'une autre

comparaison a couronné l'algorithme ABC-PP comme étant le plus performant pour

le problème d'apprentissage des réseaux RBF pour l'approximation des fonctions

benchmark, il a été appliqué pour l'apprentissage d'un réseau de neurones RBF

pour estimer le modèle du pendule inversé dans la commande sliding mode. Cette

partie a fait l'objet d'une communication internationale :

• Salem, M. and Khel�, M. F. (2014c). An enhanced swarm intelligence based training algorithm

for RBF neural networks in function approximation. In The 2nd IEEE World Conference on

Complex Systems, 2014, Agadir, In press.

3.2 Apprentissage en ligne des réseaux de neurones RBF

Dans le deuxième volet, nous avons considéré les algorithmes d'apprentissage en ligne

des réseaux de neurones RBF dans la commande sliding mode.

Dans cette partie de la thèse, nous avons introduit les contributions suivantes :

G) Amélioration et implémentation de l'algorithme d'apprentissage en ligne GAP-EKF

des réseaux de neurones RBF, l'algorithme utilise une stratégie Growing and Pru-

ning où le réseau commence avec 0 neurones et ceux-ci seront ajoutés ou supprimés

4

Page 22: Approches de l'intelligence artificielle pour la commande

Introduction générale

selon le besoin. Nous avons choisi de modi�er seulement les paramètres du neurone

le plus proche.

H) Conception d'une approche de commande sliding mode basée sur la combinaison en

parallèle des réseaux de neurones RBF avec apprentissage par l'algorithme GAP-

EKF et d'un contrôleur �ou.

Ces résultats ont été validés par les productions suivantes :

• Salem, M. and Khel�, M. F. (2011). rbf based sliding mode control for robot manipulators. In

International Conference on Communications, Computing and Control Applications (CCCA

2011), Hammamet, Tunisia.

• Salem, M. and Khel�, M. F. (2014b). Sequential adaptive RBF-fuzzy variable structure control

applied to robotics systems. International Journal of Intelligent Systems and Applications,

6(10) :19-29.

4 Structure de la thèse

Ce mémoire est structuré en cinq chapitres (cf. Figure 1) :

Le premier chapitre dresse un état de l'art non exhaustif des techniques de l'intelligence

computationnelle : réseaux de neurones, logique �oue et algorithmes d'optimisation. Deux

commandes des systèmes non linéaires sont présentées : la commande Proportionnelle-

intégrale et dérivée (PID) et la commande robuste sliding mode. Ce chapitre est clôturé

par une synthèse des approches de la commande sliding mode avec les réseaux RBF.

Le deuxième chapitre commence par introduire l'algorithme d'optimisation biogéogra-

phique (BBO), nous passons ensuite à détailler une proposition d'amélioration du modèle

prédateur et proies pour l'utiliser pour hybrider l'algorithme BBO. En�n, une comparai-

son des performances de la nouvelle approche PMBBO avec les algorithmes génétiques

pour le réglage d'un contrôleur PID est présentée.

Le troisième chapitre est consacré à la méta-heuristique d'optimisation ABC et son

hybridation avec le modèle prédateur et proies amélioré (ABC-PP) suivie par une analyse

statistique comparant les deux algorithmes introduits par la présente thèse avec quelques

algorithmes évolutionnaires connus.

Le quatrième chapitre explore l'utilisation de l'algorithme ABC-PP dans l'apprentis-

sage hors ligne des réseaux de neurones RBF et introduit une commande sliding mode

basée sur l'approche ABC-PP-RBF pour commander un pendule inversé.

Le cinquième chapitre décrit un nouvel algorithme d'apprentissage en ligne des réseaux

de neurones RBF et son fonctionnement. L'algorithme GAP-EKF est utilisé en parallèle

avec un contrôleur �ou pour concevoir une commande sliding mode d'un pendule inversé

en premier lieu et ensuite le robot manipulateur SCARA.

5

Page 23: Approches de l'intelligence artificielle pour la commande

Introduction générale

Chapitre

1

Techn

iquesde

l'intelligence

compu

tationnelle

etsesap-

plications

dans

lacommande

Chapitre 2

Optimisation biogéogra-

phique basée sur le modèle

prédateur et proies amélioré

Chapitre 3

Optimisation par colonie

d'abeilles arti�cielles et pré-

dateur et proies amélioré

Chapitre 4

Apprentissage hors ligne des

réseaux de neurones RBF

par l'algorithme ABC-PP

Chapitre 5

Apprentissage en ligne des

réseaux de neurones RBF

par l'approche GAP-EKF

Figure 1: Navigation à travers la thèse

6

Page 24: Approches de l'intelligence artificielle pour la commande

Chapitre 1

Techniques de l'intelligence

computationnelle et ses applications

dans la commande

1 Introduction

La majorité des systèmes dynamiques utilisés dans la réalité sont des systèmes non

linéaires. Ce type de système est généralement sujet aux variations et incertitudes struc-

turelles et non structurelles causées par l'environnement d'où le recours aux techniques

de l'intelligence computationnelle pour palier à ce problème. Ces techniques sont connues

par leur adaptation aux changements environnementaux.

Dans ce chapitre, nous allons présenter ces techniques (Réseaux de neurones, Logique

�oue et algorithmes évolutionnaires) et leurs applications dans la commande robuste (Sli-

ding mode) des systèmes non linéaires.

La dernière section est consacrée à la présentation d'une synthèse des approches ré-

centes utilisant les réseaux RBF dans la commande sliding mode et leurs comparaison.

2 Réseaux de neurones

2.1 Neurone formel

Le neurone formel est un modèle mathématique simpli�é du neurone biologique. Il

présente un certain nombre d'entrées, un corps traitant ces entrées et un axone véhiculant

la réponse du neurone. La première modélisation d'un neurone découle des résultats des

travaux signi�catifs de Mac Culloch et Pitts (McCulloch and Pitts, 1943). La Figure 1.1

représente un modèle de base de ce neurone.

Le modèle de la Figure 1.1 est composé :

- Des entrées xi, i = 0, 1, . . . , n ; l'entrée spéciale avec la valeur x0 = 1 est appelée le biais

7

Page 25: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

x1

x2

xn

a1

a2

an

∑Φ

x0 = 1

a0

y

Figure 1.1: Modèle de base d'un neurone formel.

- Des paramètres de pondération (Poids) ai.

- De la fonction d'activation ou de seuillage Φ (non linéaire, sigmoïde,. . . etc.) ;

- D'une sortie y donnée par la relation (1.1) :

y = Φ

(n∑i=0

aixi

)(1.1)

Une collection de neurones formels est appelée réseaux de neurones. Ces réseaux sont

souvent constitués de couches de neurones inter-connectés (McCulloch and Pitts, 1943)

et le type de connections, la nature de la fonction d'activation et d'autres paramètres dé-

termineront le type du réseau de neurones (Perceptron multicouches, Réseaux à fonctions

de base radiales, Réseau de Kohonen, etc..).

2.2 Propriétés des réseaux de neurones

2.2.1 Apprentissage

L'apprentissage et l'adaptation constituent deux caractéristiques essentielles des ré-

seaux de neurones. Le rôle de l'apprentissage est de dé�nir les poids de chaque connexion.

De nombreuses règles existent pour modi�er les poids des connexions pour arriver à un

apprentissage correct. Lorsque la phase d'apprentissage est achevée, le réseau doit être

capable de faire les bonnes associations pour les vecteurs d'entrées qu'il n'aura pas ap-

pris (Moody and Darken, 1995).

C'est l'une des propriétés importantes dans les réseaux de neurones, car elle permet

de donner la capacité de reconnaitre des formes ressemblantes et même dégradées des

prototypes appris.

Il existe deux types principaux d'apprentissages : l'apprentissage supervisé et l'appren-

tissage non- supervisé.

• Apprentissage superviséNous parlons d'apprentissage supervisé quand le réseau est alimenté avec la bonne

réponse pour les exemples d'entrées donnés. Le réseau a alors comme but d'ap-

proximer ces exemples aussi bien que possible et de développer à la fois la bonne

8

Page 26: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

représentation mathématique qui lui permet de généraliser ces exemples pour ensuite

traiter des nouvelles situations (Hagan et al., 1995).

• Apprentissage non-superviséDans le cas de l'apprentissage non-supervisé le réseau décide lui-même quelles sont

les bonnes sorties. Cette décision est guidée par un but interne au réseau qui exprime

une con�guration idéale à atteindre par rapport aux exemples introduits. Les cartes

auto organisatrices de Kohonen sont un exemple de ce type de réseau (Hagan et al.,

1995).

Outre la classi�cation présentée ci-dessus, les méthodes d'apprentissage sont souvent

di�érenciées de par leur caractère hors ligne (o�-line) ou en ligne (on-line) :

• Apprentissage hors ligneCe mode d'apprentissage consiste à accumuler les erreurs instantanées consécutives,

et à n'e�ectuer l'adaptation des poids synaptiques que lorsque l'ensemble des don-

nées d'apprentissage ont été présentées au réseau. Cette dernière méthode permet

de mieux estimer le gradient réel de la fonction coût, puisqu'il est à présent calculé

à partir d'un ensemble d'exemples, plutôt qu'à partir d'un seul.

• Apprentissage en ligne

Il consiste à modi�er les valeurs des poids synaptiques immédiatement après la pré-

sentation d'un exemple. Dans ce cas, seul le gradient instantané de la fonction coût

est utilisé pour l'adaptation des paramètres du système. Sous la condition que les

exemples soient présentés au réseau de neurones de manière aléatoire, l'apprentis-

sage en-ligne rend la recherche du minimum de la fonction coût stochastique en

nature, ce qui rend moins probable, pour l'algorithme d'apprentissage, de tomber

dans un minimum local

L'e�cacité relative des modes d'apprentissage en-ligne et hors-ligne dépend essentielle-

ment du problème considéré. L'apprentissage en-ligne présente cependant l'avantage que,

pour une seule présentation de l'ensemble de la base de données, il implique de multiples

phases d'adaptations des poids synaptiques lorsque des données similaires se représentent,

ce qui se produit fréquemment pour des bases de données très étendues (Hagan et al.,

1995).

2.2.2 Approximation parcimonieuse

Les réseaux de neurones à couches ont la propriété générale d'être des approximateurs

universels parcimonieux (Hagan et al., 1995).

Les travaux de Cybenko (Cybenko, 1989) a prouvé la possibilité d'approximer n'im-

porte quelle fonction non linéaire avec la précision voulue par des réseaux de neurones à

une seule couche cachée avec des fonctions d'activations non linéaires. Cependant, rien

n'est dit sur le nombre de neurones nécessaires à cette approximation.

9

Page 27: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Cette propriété n'est pas spéci�que des réseaux de neurones mais au contraire d'autres

approximateurs comme les polynômes. La spéci�cité des réseaux de neurones réside dans

le caractère � parcimonieux � de l'approximation, où à précision égale, les réseaux de neu-

rones nécessitent moins de paramètres ajustables que les autres approximateurs connus ;

plus précisément, le nombre de poids varie linéairement avec le nombre de variables de

la fonction à approcher, alors qu'il varie exponentiellement pour la plupart des autres

approximateurs.

C'est cette remarquable parcimonie qui justi�e l'intérêt pratique des réseaux de neu-

rones : dès qu'un problème fait intervenir plus de deux variables, les réseaux de neurones

sont, en général, préférables aux autres méthodes (Hornik, 1991).

2.3 Étapes de la conception d'un réseau de neurones

Les réseaux de neurones sont souvent utilisés pour résoudre les problèmes de classi�-

cation et de régression. A�n de concevoir un réseau de neurones, nous citons chronologi-

quement les quatre grandes étapes qui doivent être suivies (Hagan et al., 1995).

2.3.1 Choix et préparation des échantillons

Le processus d'élaboration d'un réseau de neurones commence toujours par le choix et

la préparation des échantillons de données. Comme dans les cas d'analyse de données, cette

étape est cruciale et va aider le concepteur à déterminer le type de réseau le plus approprié

pour résoudre sont problème. La façon dont se présente l'échantillon conditionne : le type

de réseau, le nombre de neurones d'entrée, le nombre de neurones de sortie et la façon

dont il faudra mener l'apprentissage, les tests et la validation (Moody and Darken, 1995).

2.3.2 Élaboration de la structure du réseau

La structure du réseau dépend étroitement du type des échantillons. Il faut d'abord

choisir le type de réseau : un perceptron standard, un réseau de Hop�eld, un réseau de

fonctions à bases radiales, un réseau de Kohonen etc... Dans le cas du perceptron par

exemple, il faudra aussi choisir le nombre de neurones dans la couche cachée. Plusieurs

méthodes existent et nous pouvons par exemple prendre une moyenne du nombre de

neurones d'entrée et de sortie, mais rien ne vaut de tester toutes les possibilités et de

choisir celle qui o�re les meilleurs résultats (Hagan et al., 1995).

2.3.3 Apprentissage du réseau

L'apprentissage consiste tout d'abord à calculer les poids optimaux des di�érentes

liaisons, en utilisant un échantillon. La méthode la plus utilisée est la rétro-propagation :

nous entrons des valeurs des cellules d'entrée et en fonction de l'erreur obtenue en sortie,

10

Page 28: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

nous corrigeons les poids. Ce cycle est répété jusqu'à ce que la courbe d'erreur du réseau

ne soit croissante (il faut bien prendre garde de ne pas sur-entrainer un réseau de neurones

qui deviendra alors moins performant) (Moody and Darken, 1995).

2.3.4 Validation et Test

Alors que les tests concernent la véri�cation des performances d'un réseau de neurones

hors apprentissage et sa capacité de généralisation, la validation est parfois utilisée lors

de l'apprentissage (e.g : cas du early stopping). Une fois le réseau calculé, il faut toujours

procéder à des tests a�n de véri�er que le réseau réagit correctement. Il y a plusieurs mé-

thodes pour e�ectuer une validation : la cross validation, le bootstrapping... mais pour les

tests, dans le cas général, une partie de l'échantillon est simplement écartée de l'échantillon

d'apprentissage et conservée pour les tests hors échantillons. Nous pouvons par exemple

utiliser 60% de l'échantillon pour l'apprentissage, 20% pour la validation et 20% pour

les tests. Dans les cas de petits échantillons, nous ne pouvons pas toujours utiliser une

telle distinction, simplement parce qu'il n'est pas toujours possible d'avoir su�samment

de données dans chacun des groupes ainsi crées. Nous avons alors parfois recours à des

procédures comme la cross-validation pour établir la structure optimale du réseau (Hagan

et al., 1995).

2.4 Réseaux de neurones à fonctions de bases radiales

Un réseau à fonctions de bases radiales (RBF) est un réseau neurologique arti�ciel qui

utilise des fonctions de bases radiales comme fonctions d'activation et dont la sortie est

une combinaison linéaire. Leur propriétés théoriques et pratiques ont été étudiées en détail

depuis la �n des années 80 (Moody and Darken, 1995). Ce type de réseau est employé

dans l'approximation de fonction, la prévision de série chronologique et l'identi�cation de

systèmes.

Un réseau à fonction de bases radiales est basé sur une architecture qui s'organise en

deux couches seulement ; une couche cachée et une couche de sortie comme le montre la

Figure 1.2.

La couche cachée, constituée des noyaux (ou neurones) RBF e�ectue une transforma-

tion non linéaire de l'espace d'entrée.

La couche de sortie calcule une combinaison linéaire des sorties de la couche cachée.

Chaque noyau élémentaire calcule la distance entre l'entrée et son centre qu'il passe ensuite

dans une non linéarité concrétisée par une fonction d'activation Φ qui est généralement

de type gaussien.

La valeur que peut prendre la sortie du noyau gaussien est d'autant plus importante

que l'entrée est plus proche de son centre et tend vers zéro lorsque la distance entrée-centre

devient importante.

11

Page 29: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

La sortie du réseau RBF est donnée par (Hagan et al., 1995) :

yk(x) =N∑j=1

akjΦj(x) + ak0 (1.2)

où sa fonction gaussienne est donnée par la relation suivante

Φj(x) = exp

[−‖xi − µj‖

2

2σ2j

](1.3)

||.|| dénote la norme euclidienne, x est le vecteur d'entrée des éléments xi, et µj : le

vecteur déterminant les centres de la fonction Φj par rapport aux entrées et σ est sa

largeur (cf. Figure 1.3). ak0 est le poids d'un neurone dont l'entrée est toujours 1, appelé

le biais (Hagan et al., 1995).

2.4.1 Apprentissage des réseaux de neurones RBF

L'apprentissage d'un réseau RBF consiste à déterminer son architecture (le nombre

des fonctions radiales N) et à �xer ses paramètres : centres, largeurs et poids. Générale-

ment nous déterminerons empiriquement la valeur de N en recourant à des techniques de

validation croisée.

L'apprentissage d'un réseau RBF est de type supervisé : Nous disposons d'un ensemble

d'apprentissage constitué dem couples (vecteur d'entrée, valeur cible) : (x1; yd1); ...; (xm; ydm)

où xi ∈ Rd; ydi ∈ R.L'objectif de l'apprentissage est de minimiser une quantité J , donnée par l'équation (1.4).

J =1

n

m∑i=1

(ydi − yi(xi))2 (1.4)

Une caractéristique intéressante des modèles RBF est que nous pouvons diviser les para-

mètres en trois groupes : les centres µ, les largeurs σ et les poids a.

L'interprétation de chaque groupe permet de proposer un algorithme d'apprentissage

simple et performant (Hagan et al., 1995).

x1

x2

xNx

yk

a1

a2aN

Figure 1.2: Architecture d'un réseau RBF.

12

Page 30: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

σ

µx

Φ = f(x)

Figure 1.3: Fonction gaussienne du réseau RBF.

2.4.2 Algorithmes d'apprentissage des réseaux RBF

• Approche séquentielle

Cette technique d'apprentissage proposée dès la �n des années 1980 est très couramment

utilisée (Hagan et al., 1995). Elle consiste à optimiser successivement les trois jeux de

paramètres (a, µ, σ). Cette technique a l'avantage d'être simple à mettre en ÷uvre, de

demander peu de calcul et de donner des résultats acceptables. La solution obtenue n'est

cependant pas optimale.

Dans un premier temps, nous estimons les positions des centres µ et les largeurs σ

à l'aide d'un algorithme de clustring de type k −means. Une fois ces paramètres �xés,

il est possible de calculer les poids optimaux a par une méthode de régression linéaire.

C'est certainement la simplicité et l'e�cacité de cette méthode qui a fait le succès des

RBF (Moody and Darken, 1995).

En connaissant les centres et largeurs des fonctions gaussiennes, la sortie du réseau

donnée en (1.2) devient :

y(x) =N∑j=0

akjΦj(‖x− µj‖ , σj) =N∑j=0

ajhj(x). (1.5)

Nous cherchons la solution a, le vecteur des poids minimisant la di�érence ε entre la sortie

estimée et la sortie désirée. Nous avons donc un système d'équations linéaires qui s'écrit

sous la forme matricielle :

Y = Ha+ ε (1.6)

La matrice H, de dimension m ∗ N , donne les réponses des N centres RBF sur les m

exemples, Y est un vecteur regroupant les m sorties yi sur l'ensemble d'apprentissage, et

ε est le vecteur d'erreur. Le critère à optimiser est :

E = εT ε (1.7)

13

Page 31: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Si nous ajoutons un terme de régularisation de type ridge regression (Hoerl, 1962), qui

pénalise les solutions avec de grandes valeurs des poids, nous écrivons :

E = εT ε+ aT a. (1.8)

La solution s'obtient par un calcul classique de pseudo-inverse, et s'écrit :

a = (HTH + λI)−1HTY (1.9)

où I est la matrice identité de dimensionm. Le paramètre λ doit être déterminé par va-

lidation croisée ou, de manière plus sophistiquée, en employant des méthodes bayésiennes

de ré-estimation (Orr, 1995)).

• Rétro-propagation du gradient de l'erreur

L'algorithme de rétro-propagation du gradient de l'erreur à été crée en généralisant les

règles d'apprentissage de Widrow Ho� aux réseaux multicouches à fonction d'activation

non linéaire (Widrow and Lehr, 1990).

La rétro-propagation du gradient de l'erreur est utilisée pour ajuster les poids et les

biais du réseau a�n de minimiser l'erreur quadratique entre la sortie du réseau et la sortie

réelle (Widrow and Lehr, 1990).

A chaque couple entrée/sortie, une erreur est calculée, le gradient, ou pente de l'erreur

est déterminé. Ensuite les poids et les biais sont modi�és sur le réseau. Nous réitérons ces

calculs jusqu'à l'obtention du critère d'arrêt.

Une alternative à l'apprentissage séquentiel décrite dans la section précédente consiste

à optimiser les paramètres du modèles RBF par descente de gradient, comme nous le

faisons pour d'autres modèles connexionnistes. Il faut pour cela calculer les dérivées du

coût par rapport aux di�érents paramètres. L'erreur d'un seul couple d'entrée/sortie Ei =12(ydi − y(xi))

2 et pour la fonction gaussienne de l'équation (1.3), les dérivées partielles

s'écrivent sous la forme suivante (Orr, 1995) :

dEiaj

= −aj(ydi −∑j

ajΦij)Φij

dEiσj

= −aj‖x− µj‖2

σ3j

(ydi −∑j

ajΦij)Φij

dEiµkj

= −ajxki − µkjσ2j

(ydi −∑j

ajΦij)Φij (1.10)

A partir de ces équations, nous pouvons mettre en ÷uvre un algorithme d'apprentissage

standard de minimisation de l'erreur, en version batch (calcul de l'erreur sur l'ensemble

des exemple avant mise à jour des paramètres) ou en ligne (mises à jour après chaque

14

Page 32: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

exemple, approche qui en général o�re de meilleures performances). Il s'agit cependant

d'un problème non linéaire, et l'algorithme d'apprentissage a de grandes chances de rester

bloqué dans un minimum local de la fonction coût. La réussite de l'apprentissage dépend

donc beaucoup des conditions initiales (Widrow and Lehr, 1990).

3 Logique �oue

3.1 Généralités sur la logique �oue

La logique �oue (Fuzzy Logic) est une technique formalisée en 1965 par Zadeh de

l'université de Berkeley (Zadeh, 1965). Elle permet de traiter des variables logiques non

exactes dont la valeur peut varier entre 0 et 1. Elle se base sur la représentation et la

manipulation des connaissances imprécises, vagues et incertaines.

La logique �oue associe à un concept imprécis (concepts humains e.g. grand, chaud,...),

une fonction d'appartenance à un ensemble. Généralement, c'est une fonction numérique

continue qui exprime un point de vue subjectif d'une personne sur la variabilité du concept.

Il a été montré qu'une telle fonction est utile pour représenter l'in�uence des modi-

�cateurs linguistiques, comme � très, plus ou moins �, � peu � sur la signi�cation des

concepts (Zadeh, 1965).

3.1.1 Variables linguistiques et ensembles �ous

La description imprécise d'une certaine situation, d'un phénomène ou d'une grandeur

physique ne peut se faire que par des expressions relatives ou �oues à savoir : Quelque,

Beaucoup, Souvent, etc. Ces di�érentes classes d'expressions �oues dites ensembles �ous

forment ce que nous appelons des variables linguistiques. A�n de pouvoir traiter nu-

mériquement ces variables linguistiques (normalisées généralement sur un intervalle bien

déterminé appelé univers de discours), il faut les soumettre à une dé�nition mathématique

à base de fonctions d'appartenance qui montre le degré de véri�cation de ces variables lin-

guistiques relativement aux di�érents sous ensembles �ous de la même classe (Abraham,

2001). Un exemple est donné dans la Figure 1.4.

50 Température

U(x)

0

1Petit Moyen Grand

Figure 1.4: Partition �oue de la variable linguistique "Température".

15

Page 33: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

3.1.2 Sous-ensembles �ous

Les sous-ensembles �ous sont une classe d'objet où la transition entre l'appartenance

et la non appartenance à l'ensemble n'est pas abrupte mais graduelle. Un sous-ensemble

�ou A, est dé�ni par :

� Un intervalle convexe A de <, auquel est associé un label linguistique (e.g. "Pe-

tit","Moyen", "Grand").

� Une fonction réelle UA(x) à valeurs dans [0, 1], qui donne le degré d'appartenance

d'une variable x au sous-ensemble �ou UA(x). Cette fonction modélise les situations

où un même élément peut être classé dans plusieurs catégories avec des degrés

divers (Klir and Yuan, 1995).

3.1.3 Fonction d'appartenance

A�n de permettre un traitement numérique des variables linguistiques dans la prise

de décisions �oues sur calculateur, une dé�nition des variables linguistiques à l'aide de

fonctions d'appartenance s'impose. Dans ce contexte, nous associons à chaque valeur de

la variable linguistique une fonction d'appartenance désignée par UA(x), qui sera désignée

par le degré ou le facteur d'appartenance. Il est à noter que l'ensemble des éléments de

x pour lesquels UA(x) > 0, est appelé �support de A�. Le plus souvent, nous utilisons

pour les fonctions d'appartenance les fonctions suivantes (cf. Figure 1.5) (Kartalopoulos,

2004) :

� Fonction triangulaire : Elle est dé�nie par trois paramètres a, b, c qui déterminent

les coordonnées des trois sommets.

U(x) = Max(Min(x− ab− a

,c− xc− b

), 0) (1.11)

� Fonction trapézoïdale : Elle est dé�nie par quatre paramètres a, b, c, d :

U(x) = Max(Min(x− ab− a

, 1,c− xd− x

), 0) (1.12)

� Fonction gaussienne : Elle est dé�nie par deux paramètres (σ, µ) :

U(x) = exp(−(x− µ)2

2σ2) (1.13)

� Fonction sigmoïdale : Elle est dé�nie par deux paramètres a, c :

U(x) =1

1 + exp(a(x− c))(1.14)

16

Page 34: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Figure 1.5: Formes usuelles des fonctions d'appartenance.

3.1.4 Base de règles �oues

Nous dé�nissons une règle �oue comme une proposition �oue correspondant à la mise

en relation de deux propositions �oues par une implication (Abraham, 2001).

Une proposition �oue est dite élémentaire, si elle n'est constituée que d'un prédicat de la

forme "X est A". La composition de deux ou plusieurs variables linguistiques constitue

une proposition �oue. L'expression linguistique générale d'une règle peut être formalisée

de la manière suivante :

si x est A alors y est B.

où A et B sont des sous-ensembles �ous , x et y sont des variables linguistiques.

Nous appelons prémisse, la partie condition de la règle ( x est A ) et conclusion, la seconde

partie (y est B).

D'une manière générale, nous pouvons combiner des propositions �oues de type "x est

A" par des opérateurs logiques de conjonction et de disjonction. Nous pouvons alors

construire des règles �oues plus complexes, dont la partie prémisse et la partie conclusion

correspondent à une combinaison de propositions, par exemple (Rajasekaran and Pai,

2003) :

si x1 est A1 et x2 est A2 alors y est B.

3.2 Système d'inférence �oue

La Figure 1.6 illustre la structure générale du c÷ur d'un système d'inférence �oue à

deux entrées et une sortie.

Nous pouvons noter que le calcul de la sortie y s'e�ectue à partir de trois étapes

fondamentales (Abraham, 2001) :

� Une interface de Fuzzi�cation ;

� Un mécanisme d'inférence (règles) ;

� Une interface de Défuzzi�cation.

17

Page 35: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Controleur �oux1x2

y

Mécanisme d'inférenceFuzzi�cationx1x2 Defuzzi�cation y

Figure 1.6: Structure interne d'un système d'inférence �oue.

3.2.1 Fuzzi�cation

La fuzzi�cation est la traduction des valeurs numériques relatives aux entrées du sys-

tème en termes d'appartenances à des sous ensembles �ous pour pouvoir appliquer les

règles. A une variable, nous associons les degrés d'appartenances correspondant à chaque

sous ensemble �ou (ce qui dépend bien sur de la description �oue adoptée) (Klir and

Yuan, 1995).

3.2.2 Inférence �oue

L'inférence �oue est l'application de la caractérisation symbolique du système aux

règles �oues et la déduction d'un certain nombre de résultats locaux ; également exprimés

sous forme symbolique concernant les variables de sortie du système. Le but de cette étape

est d'arriver à déterminer des sorties �oues ; en partant d'entrées �oues et en utilisant une

base de règles (Wang, 1994).

Pour pouvoir utiliser cette base de règles, nous avons besoin de trois opérateurs, ma-

thématiques, pour réaliser la conjonction (ET), l'implication (Si . . . Alors) et l'agrégation

(Sinon).

3.2.3 Défuzzi�cation

Elle a pour but l'obtention d'une valeur numérique pour chaque variable de sortie à

partir des valeurs de sortie des di�érentes règles. Parmi les nombreuses possibilités pour

réaliser cette étape, nous pouvons citer (Rajasekaran and Pai, 2003) :

� La méthode du centre de gravité :

C'est la méthode de défuzzi�cation la plus courante. L'abscisse du centre de gravité

de la fonction d'appartenance résultant de l'inférence correspond à la valeur de sortie

du régulateur.

y0 =

n∑i=1

Ui(yi)yi(i)

n∑i=1

Ui(yi)(1.15)

18

Page 36: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Il apparaît que plus la fonction d'appartenance résultante est compliquée, plus le

processus de défuzzi�cation devient long et coûteux en temps de calcul (Wang,

1994).

� La méthode de la moyenne des maxima :

Les points ou la fonction d'appartenance résultante atteint son maximum sont

concernés.

y0 =l∑

i=1

yil

(1.16)

3.3 Contrôleurs �ous

La commande �oue est une application de la logique �oue au contrôle des systèmes

dynamiques pour lesquels nous ne possédons pas de modèle satisfaisant. Son principe est

simple, il s'agit dans la plupart des cas d'imiter le comportement d'un opérateur humain

dans la régulation d'un processus complexe à l'aide de règles �oues. Cette méthode de

conduite de processus est mise en ÷uvre grâce à un dispositif appelé usuellement "contrô-

leur �ou".

Un contrôleur �ou est un système d'inférence �ou employé dans la technique d'automati-

sation. Son but est de trouver une valeur numérique à appliquer au système à partir d'un

jeu de variables physiques. Les principaux types de contrôleurs qui ont été développés

portent le nom des chercheurs qui les ont proposé, il s'agit du contrôleur de Mamdani et

du contrôleur de Sugeno. Pour exposer le principe de fonctionnement de chacun d'eux,

nous considérons l'exemple d'une base de règles de la forme (Wang, 1994) :

Règle i : si x1 est Ai et x2 est Bi Alors y est Ci. Où Ai, Bi et Ci sont des sous-ensembles

�ous.

3.3.1 Méthode de Mamdani

La méthode de Mamdani est historiquement la première à avoir été proposée, elle

repose sur le raisonnement suivant (Mamdani and Assilian, 1975) :

� Calcul de la valeur de vérité de chaque règle :

αi(x) = Min(UAi(x1), UBi

(x2)) (1.17)

� Calcul de la contribution de chaque règle :

αi(y) = Min(αi(x), UCi(y)) (1.18)

� L'agrégation des règles :

α(y) = Max(αi(y)) (1.19)

� La défuzzi�cation pour obtenir une conclusion � nette �.

19

Page 37: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

3.3.2 Méthode de Takagi-Sugeno

Cette méthode a été proposée par Takagi-Sugeno (Takagi and Sugeno, 1985), elle se

caractérise par une sortie non �oue des règles. A chaque règle, nous associons une sortie

dé�nie sous forme numérique comme étant une combinaison linéaire des entrées. Les règles

utilisées d'ordre zéro sont du type

Règle i : si x1 est A1 et x2 est A2 et ... xn est An et Alors yi = C1x1 + C2x2...+ Cnxn.

où les valeurs Cj sont des valeurs réelles (non �oues).

Cette méthode se base sur le raisonnement suivant :

� Calcul de la valeur de vérité de chaque règle :

αi =n∏j=1

Aj (1.20)

� Calcul de la sortie du système d'inférence �ou :

y =

n∑i=1

αiyi

n∑i=1

αi

(1.21)

αi représente ici le degré de vérité de chaque règle. Les systèmes d'inférence �ou de

type Sugeno permettent une meilleure représentation des fonctions numériques et des

mécanismes d'inférence plus rapides (Takagi and Sugeno, 1985).

Il a été montré expérimentalement que, pour un objectif de commande de processus,

la méthode de Sugeno donnait des résultats très voisins de celle de Mamdani tout en

permettant une réduction sensible du temps de calcul (Klir and Yuan, 1995).

4 Optimisation et Algorithmes évolutionnaires

4.1 Optimisation

4.1.1 Dé�nition

L'optimisation est l'art de comprendre un problème réel, de pouvoir le transformer

en un modèle mathématique que nous pouvons étudier a�n d'en extraire les propriétés

structurelles et de caractériser les solutions du problème (Paschos, 2005).

4.1.2 Problème d'optimisation

Un problème d'optimisation consiste à trouver parmi un ensemble de solutions po-

tentielles celle qui répond le mieux à certains critères décrits sous forme d'une fonction

objectif à maximiser ou minimiser.

20

Page 38: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Mathématiquement, un problème d'optimisation s'écrit sous la forme :

Minimiserfi(x), i = (1, . . .M)

x ∈ Rnavec x = (x1, x2 . . . xn)

Sujet à

Υj(x) = 0, j = (1, . . . J)

Ψk(x) ≤ 0, k = (1, . . . K)

(1.22)

x est un vecteur à éléments réels ou entiers de dimension n. Ses composantes xi sont

appelées variables de décision, elles peuvent être continues ou discrètes, dans ce dernier cas,

nous parlerons alors d'optimisation combinatoire. Les valeurs possibles des xi représentent

l'espace de recherche noté S dans Rn.

La fonction fi(x) avec (i = 1, 2, . . . ,M) est appelée la fonction coût, la fonction éco-

nomique ou la fonction objectif. Elle attribue à chaque instance de l'espace de recherche

une valeur. Les inégalités Υj et Ψk sont appelées les contraintes du problème, qui peuvent

être linéaires ou non linéaires.

Pour un problème de minimisation, l'objectif est de rechercher les vecteurs qui mini-

misent la fonction f tout en respectant les contraintes représentées par les fonctions Υj

et Ψk.

Si M = 1, le problème est un problème d'optimisation mono-objectif et si K = J = 0,

le problème étudié serait un problème d'optimisation sans contraintes. Dans ce type de

problèmes, l'optimisation peut s'e�ectuer en tout point de l'espace de recherche.

Les problèmes qui n'ont pas de critère d'optimisation, mais qui possèdent un ensemble

de contraintes sont des problèmes de satisfaction de contraintes.

L'ajout d'un critère à un problème d'optimisation mono-objectif crée un problème

d'optimisation combinatoire avec contraintes. Ce dernier est très important puisque la

majorité des problèmes d'optimisation le sont.

Un problème d'optimisation se dé�nit alors comme la recherche de l'optimum d'une

fonction donnée. Les variables de cette fonction sont souvent contraintes d'évoluer dans

une certaine partie de l'espace de recherche (Mitchell, 1998). Cette fonction a des optima

locaux et globaux :

• Le voisinage d'une solution x est un sous-ensemble de solutions appartenant à S

(l'ensemble des solutions possibles) atteignable à partir d'une transformation V (x).

Nous pouvons dire qu'une solution x′ est voisine d'une solution x, si x′ ∈ V (x).

L'application V est appelée structure de voisinage.

• Un point x∗ est appelé minimum global de la fonction f si :

∀x, x 6= x∗ ⇒ f(x∗) < f(x)

• Un point x∗ est appelé minimum local fort de la fonction f si (Paschos, 2005) :

∀x ∈ V (x∗), x 6= x∗ ⇒ f(x∗) < f(x)

21

Page 39: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

• Un point x∗ est appelé minimum local faible de la fonction f si (cf. Figure 1.7) :

∀x ∈ xV (x∗), x 6= x∗ ⇒ f(x∗) ≤ f(x)

Il est à noter que pour les problèmes de maximisation, il su�t de multiplier la fonction

coût par (-1).

4.2 Méthodes d'optimisation

Généralement, pour résoudre un problème d'optimisation combinatoire, nous utilisons

les méthodes exactes mais lorsque nous sommes confrontés à un problème di�cile nous

avons recours aux méthodes approchées, dans ce cas le choix est parfois possible entre

une heuristique spécialisée, dédiée au problème considéré, et une méta-heuristique qui est

une méthode générale (Mitchell, 1998).

Parmi les méta-heuristiques, nous pouvons di�érencier les méta-heuristiques à base de

voisinage, et les méta-heuristiques à base de population et en�n les méthodes hybrides

qui associent souvent une méta-heuristique et une méthode locale.

x

f(x)

Minimum local

Minimum global

Figure 1.7: Optimum local et global d'une fonction.

4.2.1 Méthodes exactes

Les méthodes exactes sont des méthodes qui garantissent la complétude de la résolu-

tion. Autrement dit ces méthodes donnent à tous les coups la solution optimale. Le temps

de calcul nécessaire de telles méthodes augmente en général exponentiellement avec la

taille du problème à résoudre. Il faut être conscient que ces méthodes peuvent prendre

beaucoup de temps, surtout lorsque les problèmes sont de grande taille (Paschos, 2005).

22

Page 40: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

4.2.2 Méthodes approchées

Contrairement aux méthodes exactes, les méthodes approchées ne procurent pas forcé-

ment une solution optimale, mais seulement une bonne solution (de qualité raisonnable)

en un temps de calcul aussi faible que possible. Une partie importante des méthodes

approchées est désignée sous le terme de méta-heuristiques qui sont des méthodes gé-

nériques pouvant optimiser une large gamme de problèmes di�érents, sans nécessiter de

changements profonds dans l'algorithme employé (Mitchell, 1998).

Plusieurs classi�cations des méta-heuristiques ont été proposées ; la plupart distinguent

globalement entre trois catégories : les méthodes à base de solution courante unique, qui

travaillent sur un seul point de l'espace de recherche à un instant donné, appelées méthodes

à base de voisinage comme la méthode de la descente, le recuit simulé et la recherche tabou,

et les méthodes à base de population, qui travaillent sur un ensemble de points de l'espace

de recherche, comme les algorithmes évolutionnaires et les colonies de fourmis. En�n, les

méthodes hybrides (Mitchell, 1998)(cf. Figure 1.8).

4.2.3 Méthodes à base de voisinage

Dans les problèmes d'optimisation où nous cherchons à optimiser une fonction objectif

sur un espace de recherche donné, une petite perturbation sur un point de cet espace induit

souvent une petite variation des valeurs de la fonction objectif en ce point. Sachant que les

bonnes solutions sont souvent dans le voisinage d'autres bonnes solutions, l'idée est qu'une

bonne stratégie consisterait à se déplacer à travers l'espace de recherche en e�ectuant de

petits pas dans des directions qui améliorent la fonction objectif. Cette idée est la base

d'une grande famille d'algorithmes appelée méthodes à base de voisinage ou de recherche

locale (Paschos, 2005).

Ces méthodes s'appuient toutes sur un même principe : elles résolvent le problème

d'optimisation de manière itérative. Elles débutent avec une solution initiale (souvent

un tirage aléatoire dans l'espace de recherche), et réalisent ensuite un processus itératif

qui consiste à e�ectuer un mouvement choisi par le mécanisme d'exploration en tenant

compte de la fonction coût. Ce processus s'arrête et retourne la meilleure solution trouvée

quand la condition d'arrêt est réalisée. Cette condition peut porter sur le nombre d'essais

e�ectués, sur une limite temporelle ou sur le degré de qualité de la meilleure con�guration

courante. Cette versatilité permet de contrôler le temps de calcul, la qualité de la solution

optimale trouvée s'améliorant au cours du temps.

Les méthodes de voisinage di�èrent essentiellement entre elle par le voisinage utilisé

et la stratégie de parcours de ce voisinage (Mitchell, 1998).

23

Page 41: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Méta-heuristiques

Méthodes de voisinageMéthodes

à base de populationsMéthodes hybrides

Figure 1.8: Classi�cation des méta-heuristiques.

4.2.4 Méthodes à base de population

Dans le domaine de l'optimisation combinatoire, la complexité des phénomènes natu-

rels a servi de modèle pour des algorithmes toujours plus sophistiqués constituant ainsi

la base d'un nouveau champ de la programmation informatique en pleine e�ervescence.

Les méthodes à base de population comme leur nom l'indique, travaillent sur une

population de solutions et non pas sur une solution unique comme dans les méthodes à

base de voisinage. Nous pouvons distinguer deux grandes classes de ces techniques :

• Les algorithmes évolutionnaires inspirés des concepts issus de la théorie de l'évolu-

tion naturelle de Darwin, un exemple typique de ces algorithmes nous trouvons les

algorithmes génétiques.

• Les algorithmes inspirés de l'éthologie (l'étude du comportement des diverses espèces

animales) comme les colonies de fourmis (Mitchell, 1998).

4.2.5 Méthodes hybrides

Le mode d'hybridation qui semble le plus fécond concerne la combinaison entre les

méthodes de voisinage et les approches d'évolution. L'idée essentielle de cette hybridation

consiste à exploiter pleinement la puissance de recherche des méthodes de voisinage et de

recombinaison des algorithmes évolutifs sur une population de solutions.

Un tel algorithme utilise une ou plusieurs méthodes de voisinage sur les individus

de la population pendant un certain nombre d'itérations ou jusqu'à la découverte d'un

ensemble d'optima locaux et invoque ensuite un mécanisme de recombinaison pour créer

de nouveaux individus (Jog et al., 1991).

Les algorithmes hybrides sont sans doute parmi les méthodes les plus puissantes.

Malheureusement, les temps de calcul nécessaires peuvent devenir prohibitifs à cause du

nombre d'individus manipulés dans la population. Une voie pour résoudre ce problème

est la parallélisation de ces algorithmes sur des machines parallèles ou sur des systèmes

distribués (Verhoeven and Aarts, 1995).

24

Page 42: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

5 Algorithmes évolutionnaires

Les algorithmes évolutionnaires (Evolutionnary algorithms) sont des techniques d'op-

timisation stochastiques itératives, inspirées de la théorie de l'évolution naturelle de Dar-

win pour résoudre des problèmes divers, souvent d'optimisation. Ils simulent un processus

d'évolution sur une population d'individus, dans le but de les faire évoluer vers les optima

globaux du problème considéré (Paschos, 2005).

Le fonctionnement d'un algorithme évolutinnaire repose sur trois composants :

1- Une population constituée de plusieurs individus représentant des solutions candi-

dates du problème d'optimisation.

2- Une fonction d'adaptation pour évaluer la performance d'un individu (fonction

coût).

3- Un mécanisme d'évolution de la population composé de plusieurs opérateurs de

modi�cation et de sélection permettant d'éliminer certains individus et d'en créer de

nouveaux.

Le cycle d'évolution d'un algorithme évolutionnaire débute avec une population initiale

générée de façon aléatoire puis répète la procédure suivante (cf. Figure 1.9) :

1- Mesurer la qualité de chaque individu de la population par le mécanisme d'évalua-

tion,

2- Sélectionner une partie des individus,

3- Produire de nouveaux individus par recombinaisons des individus sélectionnés (Mé-

canisme d'évolution).

Ce processus se termine quand la condition d'arrêt est véri�ée (Mitchell, 1998).

D'une manière générale, nous pouvons distinguer trois grandes classes d'algorithmes

évolutionnaires : les algorithmes génétiques, la programmation évolutive et les stratégies

d'évolution. Ces méthodes se di�érencient par leur manière de représenter l'information

et par leur façon de faire évoluer la population d'une génération à l'autre.

5.1 Importance de la diversité

Dans le cas de certains problèmes di�ciles, l'algorithme peut très bien ne jamais

converger vers une solution satisfaisante. Soit parce que celle-ci est trop di�cile à atteindre

(temps de convergence in�ni), soit parce que l'algorithme converge prématurément vers

un optimum local et ne peut plus sortir.

Pour pallier à ce problème, plusieurs idées ont été implémentées. L'une d'elles est

l'introduction d'un objectif de diversité soit en sélectionnant les solutions sur un critère de

nouveauté seulement où en optimisant un critère de diversité en même temps que la �tness.

Ceci est possible en utilisant un algorithme évolutionnaire multi-objectifs (Mitchell, 1998).

25

Page 43: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Génération de la

Population initiale

Evaluation

Arrêt ?

Sélection

Fin

Evolution

Non

Oui

Figure 1.9: Principe général d'un algorithme évolutionnaire.

5.2 Exploitation et exploration

Les performances des algorithmes évolutionnaires sont conditionnées par les notions de

l'exploitation et de l'exploration et comment trouver un bon compromis entre elles (Cre-

pinsek et al., 2013).

• L'exploitation (Intensi�cation) insiste sur la capacité d'une méthode de voisinage

d'examiner en profondeur des zones de recherche particulières.

• L'exploration (Diversi�cation) met en avant la capacité de découvrir de nouvelles

parties prometteuses de l'espace de recherche.

Les méthodes de voisinage reposent sur l'hypothèse que les zones les plus prometteuses

sont situées à proximité des meilleures solutions (déjà visitées). Le principe d'exploitation

consiste à examiner en priorité ces zones (Crepinsek et al., 2013).

Dans les algorithmes évolutionnaires, la sélection a pour e�et de concentrer la recherche

autour des con�gurations de meilleure performance.

L'application du seul principe d'exploitation ne permet pas une recherche e�cace. En

e�et, l'exploitation conduit à con�ner la recherche dans une zone limitée qui �nit par

s'épuiser. Une illustration souvent évoquée est fournie par le problème de convergence

prématurée des algorithmes évolutionnaires. Du fait de la sélection, la population �nit

par n'être constituée que d'individus tous similaires. L'une des préoccupations majeures

dans les algorithmes évolutionnaires consiste d'ailleurs à préserver le plus longtemps pos-

sible une diversité su�sante dans la population. Face à ce type de di�culté, la solution

26

Page 44: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

consiste à diriger la poursuite de la recherche vers de nouvelles zones, i.e., recourir à

l'exploration (Crepinsek et al., 2013).

Pour cela, deux stratégies principales sont employées dans le but d'explorer un espace

de recherche :

La première stratégie qui est aussi la plus simple consiste à introduire des perturbations

aléatoires : c'est le cas pour les mutations aléatoires dans les algorithmes génétiques ainsi

que pour la génération aléatoire d'un voisin.

La deuxième stratégie pour explorer consiste à mémoriser au cours de la recherche des

caractéristiques des régions visitées et à introduire un mécanisme permettant de s'éloigner

de ces zones. C'est ce que fait la méthode tabou avec la liste tabou.

La recombinaison constitue un autre principe général qui complète l'exploitation et

l'exploration. Elle consiste à construire de nouvelles con�gurations en combinant la struc-

ture de deux ou plusieurs bonnes con�gurations déjà trouvées (Crepinsek et al., 2013).

6 Commande des systèmes non linéaires

6.1 Représentation des systèmes non-linéaires

Un phénomène est dit non linéaire lorsque ses grandeurs caractéristiques reliées entre

elles ne varient pas proportionnellement l'une à l'autre. Son comportement peut alors

être décrit par une expression, un modèle ou des équations faisant intervenir les variables

autrement qu'au premier degré (Slotine and Li, 1991).

Aucun système physique n'est complètement linéaire, les méthodes linéaires ne sont

donc applicables que dans un domaine de fonctionnement restreint. Certains systèmes

sont impossibles à modéliser, même localement, à des systèmes linéaires (Slotine and Li,

1991).

La représentation générale d'un système non linéaire est de la forme (1.23) :{x = f(x) + g(x)u(t)

y = h(x)(1.23)

Où y est la sortie du système, x est le vecteur d'état et u est le vecteur de commande.

f(x), g(x) et h(x) sont des fonctions non linéaires du vecteur d'état décrivant le sys-

tème (Lewis et al., 1993).

6.2 Commande des systèmes

La commande est l'ensemble des opérations qui amènent automatiquement un procédé

d'un état particulier à un autre état désiré yd(t) (Lewis et al., 1993).

Un système commandé est soumis à des perturbations et à des variations de paramètres,

tel que les frottements, vent, ou des bruits de mesure (cf. Figure 1.10).

27

Page 45: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Les signaux utilisés dans la �gure sont :

• yd(t) : consigne ou signal de référence (reference).

• y(t) : signal de sortie ou réponse (plant output).

• e(t) : erreur de suivi (controller input/tracking error).

• u(t) : signal de commande (controller output)

• we(t) : perturbation de la commande (plant input disturbance).

• ws(t) : perturbation de la sortie (plant output disturbance).

• n(t) : bruit de mesure (measurement noise).

Si la consigne yd(t) est constante dans le temps, nous parlerons de régulation sinon la

commande est un asservissement ou poursuite de trajectoires.

La commande d'un système a pour objectif d'atteindre les performances suivantes :

1. Stabilité Nous disons d'un système qu'il est stable si à toute entrée bornée (en

amplitude) il répond par une sortie bornée (Slotine and Li, 1991).

2. Robustesse

Elle est sans doute le paramètre le plus important et le plus délicat. Nous disons

qu'un système est robuste si la régulation fonctionne toujours même si le modèle

change un peu. Un régulateur doit être capable d'assurer sa tâche même avec ces

changements a�n de s'adapter à des usages non prévus/testés (dérive de production,

vieillissement mécanique, environnements extrêmes) (Johnson and Moradi, 2005).

3. Rapidité

Elle dépend du temps de montée et du temps d'établissement du régime stationnaire.

• Temps de réponse (Tr) : Théoriquement, le temps de réponse est le temps

nécessaire pour que le régime transitoire ait totalement disparu. Toutefois en

pratique, nous convenons, en fonction de la précision exigée que c'est le temps

au bout duquel la réponse du système pénètre dans le couloir de plus ou moins

5% de la valeur �nale sans en sortir (Johnson and Moradi, 2005).

• Temps de montée (Tm) : Temps pour lequel la réponse atteint pour la première

fois la valeur �nale. Il caractérise la vitesse de réaction du système aux premiers

instants (Johnson and Moradi, 2005).

4. Précision

Elle est caractérisée par :

• Erreur statique (es(t)) : Elle est dé�nit par l'écart entre la consigne et la sortie

lorsque le système est en régime stationnaire (t → ∞) (Johnson and Moradi,

2005).

28

Page 46: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

es(t) = limt→∞

(y(t)− yd(t)). (1.24)

• Dépassement (Omax) : en pratique il est recommandé pour avoir un système

�agile� un dépassement de 10% (Johnson and Moradi, 2005).

Omax =ymax − y∞ymax

. (1.25)

Commande∑

Système∑

u(t)

we(t) ws(t)

n(t)

yd(t) e(t) y(t)

Figure 1.10: Bloc de commande d'un système non linéaire.

6.2.1 Commande proportionnelle, intégrale et dérivée

La commande proportionnelle, intégrale et dérivée (PID) est une méthode de régula-

tion souvent employée pour les asservissements (cf. Figure 1.11). Les applications du PID

sont extrêmement nombreuses et variées et surtout dans les procédés industriels (John-

son and Moradi, 2005). La commande PID est la somme de trois actions, proportionnelle,

intégrale et dérivée, elle est donnée par la relation (1.26) :

u(t) = Kpe(t) +Kde(t) +Ki

∫e(t)dt. (1.26)

Kp, Kd et Ki sont des gains constants à déterminer.

yd(t)I Ki

∫e(t)dt

P Kpe(t)

D Kde(t)dt

∑e(t)+

+

+

Systèmeu(t) y(t)

Figure 1.11: Architecture d'un contrôleur PID.

29

Page 47: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Réglage d'un PID :

Il consiste à déterminer les gains du PID a�n d'obtenir une réponse adéquate du

procédé, l'objectif est d'être robuste, rapide et précis. Il faut pour cela diminuer le temps

de montée, éliminer l'erreur statique et diminuer le dépassement maximum (Johnson and

Moradi, 2005). L'in�uence des trois gains d'un PID sur ces performances est représentée

dans la Table 1.1 (Johnson and Moradi, 2005).

Il existe des méthodes analytiques permettant de calculer les composantes du correc-

teur PID, mais elles sont assez complexes et sont peu utilisées pour les systèmes non

linéaires.

Des méthodes empiriques existent pour les systèmes linéaire et elles permettent de

faciliter amplement la détermination des gains du régulateur PID comme la méthode de

Ziegler-Nichols et méthode de Chien-Hrones Reswick. Le problème est que ces méthodes

n'ont pas prouvé leurs e�cacité pour les systèmes non-linéaires (Johnson and Moradi,

2005).

Table 1.1: Paramètres du PID

Paramètre Temps de montée Dépassement Temps de réponse Erreur Statique

Kp Augmente N'in�ue pas Augmente Diminuée

Ki Diminue Augmente Augmente Élimine

Kd N'in�ue pas Diminue Diminue N'in�ue pas

6.2.2 Commande sliding mode

La commande sliding mode est une stratégie de commande à structure variable (Slotine

and Li, 1991). Le principe de ce type de commande consiste à ramener la trajectoire d'état

vers une surface et de la faire évoluer au dessus avec une certaine dynamique jusqu'au

point d'équilibre. La surface considérée est alors désignée comme étant la surface de

glissement ou de commutation. Le comportement dynamique résultant, appelé régime

glissant idéal, est complètement déterminé par les paramètres et les équations dé�nissant

la surface. L'avantage d'obtenir un tel comportement est double : d'un côté, nous avons

une réduction de l'ordre du système, et d'autre part, le régime glissant est insensible aux

perturbations intervenant dans les mêmes directions que les entrées (Sha�ei, 2010).

Le principe de l'algorithme d'une commande sliding mode est indiqué dans la Figure 1.12

30

Page 48: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

xd(t) Commande

équivalente

e(t)

Ksign(s)s = e+ λe

∑ue(t) +

uc(t)+

Système

f(x), g(x)

u(t) x(t)

Figure 1.12: Schéma de la commande sliding mode.

Synthèse de la commande sliding mode :

Considérant un système non linéaire avec perturbations décrit par l'équation (1.27) :

x = f(x) + g(x)u(t) + d(t). (1.27)

Avec x(t) :le vecteur d'état, f(x) et g(x) des fonctions non linéaires décrivant le système

et d(t) représente les perturbations externes.

L'objectif est de trouver une loi de commande tel que, étant donné une trajectoire désirée

xd(t), l'erreur de poursuite e(t) tend vers zéro malgré la présence des perturbations.

L'erreur de poursuite est dé�nie par (Slotine and Li, 1991) :

e(t) = x(t)− xd(t). (1.28)

Slotine (Slotine and Li, 1991) a proposé une forme générale qui consiste à dé�nir une

fonction scalaire des surfaces de glissement dans le plan de phase dans le but d'assurer la

convergence d'une variable d'état x(t) vers sa valeur de consigne xd(t). Cette fonction est

donnée par l'équation :

s = e+ λe (1.29)

où λ est un scalaire qui représente la pente de la surface de glissement.

Une fois la fonction de commutation établie, le problème de la poursuite nécessite la

conception d'une loi de commande tel que le vecteur d'erreur e(t) reste sur la surface de

glissement s = 0 pour tout t ≥ 0 (Slotine and Li, 1991).

La loi de commande par mode glissant est alors dé�nit par l'addition de deux com-

mandes, la commande équivalente ue(t) et la commande corrective uc(t) (Équation (1.30)) :

u(t) = ue(t) + uc(t) (1.30)

31

Page 49: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Commande équivalente La commande continue, déduite de s = 0, est appelée com-

mande équivalente ue. Son rôle est de ramener le système vers la surface de glissement,

elle est donnée par la relation (1.31) (Slotine and Li, 1991) :

ue(t) =1

g(x)[−f(x) + xd(t)− λx(t) + λxd(t)− d(t)] (1.31)

Commande corrective La commande corrective est responsable de garder le système

sur la surface s, elle est donnée par la relation suivante (Slotine and Li, 1991) :

uc(t) = −K.sign(s) (1.32)

Sachant que sign(.) est la fonction signe et K est une constante positive qui représente le

gain de la commande discontinue. Il est choisi assez grand pour compenser les perturba-

tions d(t).

6.2.3 Limites de la commande sliding mode

La commande sliding mode sou�re de deux inconvénients majeurs :

• La connaissance exacte et à priori du modèle du système est nécessaire pour obtenir

de bonnes performances de la commande. En e�et, la partie équivalente de la com-

mande sliding mode a pour rôle de ramener le système vers la surface, cette partie

est constituée essentiellement des fonctions non linéaires du modèle f(x) et g(x) (cf.

Équation (1.31)).

Si le système présente des incertitudes ou des variations dans les paramètres, les

performances de la commande équivalente se trouveront diminuées (Slotine and Li,

1991).

• L'utilisation du terme sign(.) dans le signal de commutation avec de grandes valeurs

du gain K (Équation (1.32)) provoque le phénomène de chattering qui peut exciter

les hautes fréquences et détériorer le système commandé. Ce phénomène est présenté

dans la Figure 1.13.

Une méthode qui permet de réduire l'e�et du chattering est de remplacer la fonction

discontinue sign par une fonction de saturation, qui consiste à déterminer une bande

limite autour de la surface de glissement ainsi assurant le lissage de la commande

et le maintient de l'état du système dans cette bande.

32

Page 50: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

7 Intelligence computationnelle dans la commande

sliding mode

Plusieurs auteurs ont essayé de fusionner les techniques de l'intelligence computa-

tionnelle et la commande sliding mode a�n d'atténuer les problèmes rencontrés dans

les implémentations pratiques de la commande.

Trois techniques principales de l'intelligence computationnelle ont été combinées

avec la commande sliding mode : les réseaux de neurones, la logique �oue et les

algorithmes évolutionnaires en particulier les algorithmes génétiques.

s

e

e

Figure 1.13: Exemple de chattering.

7.1 Application des réseaux de neurones dans la commande sli-

ding mode

L'intégration des réseaux de neurones dans un contrôleur sliding mode peut être classée

en deux catégories principales :

1) Utilisation des réseaux de neurones dans la boucle de retour du contrôleur sliding

mode en parallèle pour calculer la commande équivalente ;

2) Utilisation des réseaux de neurones pour l'adaptation des paramètres de la com-

mande sliding mode.

7.1.1 Architectures parallèles

Dans la littérature, divers schémas sont proposés pour l'utilisation des réseaux de

neurones avec un contrôleur sliding mode soit en parallèle pour éliminer l'e�et chattering,

33

Page 51: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

ou pour calculer la partie équivalente de la commande .

Néanmoins, seule une valeur approximative peut être calculée pour des systèmes connus

en partie ou incertains. Le calcul de la partie équivalente par réseaux de neurones peut

être une bonne solution pour ce genre de système. Dans la littérature, les architectures

suivantes sont utilisées en masse :

(A) Architecture Neuro-sliding mode : (Ertugrul and Kaynak, 2000) ont proposé

une approche Neuro-sliding mode control où deux réseaux neuronaux sont utilisés

en parallèle pour réaliser la commande équivalente et corrective de la commande

sliding mode (cf. Figure 1.14).

L'entrée du premier réseau est constituée de l'état désiré et la position actuelle

tandis que l'entrée du deuxième réseau est la surface s.

Réseau 1xd(t) ue(t)

∑Robot

y(t)

Réseau 2

Adaptation

u(t)

∑ e(t)−

+

uc(t) −+

Figure 1.14: Architecture neuro-sliding mode control (Ertugrul and Kaynak, 2000).

(B) Réseaux de neurones pour la commande équivalente du contrôleur sliding

mode :

L'utilisation d'un réseau de neurones pour le calcul du terme de la commande équi-

valente d'un contrôleur sliding mode est également proposée par (Jezernik et al.,

1997). Dans leur approche, représentée sur la Figure 1.15, un dispositif de com-

mande sliding mode inspiré de (Sabanovic et al., 1996) est utilisé en parallèle avec

un réseau de neurones pour obtenir une commande robuste. Les entrées du réseau

sont sélectionnées comme le sinus des positions angulaires désirées, les vitesses dé-

sirées, les erreurs en position, et les erreurs en vitesse.

Un algorithme d'apprentissage de type gradient est proposé pour adapter les poids

du réseau pour minimiser la fonction coût : J = 12(Ks+ s)2.

34

Page 52: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Reseau

Estimateur

xd(t)

s+ λs

∑+Robot

x(t)

Feedback

u(t)

∑ e(t)

+

+

Figure 1.15: Architecture proposée par (Jezernik et al., 1997).

(C) Autres architectures neuronales :

Une autre architecture est proposée par (Kim and Oh, 1995) pour une classe des

systèmes dynamiques non linéaires. L'architecture de base est représentée sur la

Figure 1.16.

Le procédé utilise une architecture de commande hybride dans lequel le réseau de

neurones rapproche les non-linéarités à l'aide des données d'entrées-sorties et les

erreurs de suivi du système. Le contrôleur sliding mode utilisé en parallèle assure

la stabilité uniforme avant que le contrôleur neuronal a eu assez de temps pour

apprendre le système dynamique. Un contrôleur à retour d'état linéaire proportion-

nel et dérivé (PD) est également utilisé pour éviter l'e�et chattering du contrôleur

sliding mode.

PID

Sliding m

Réseau NN m-1

e(t)

+

++

Systemeu(t) x(t)

Réseau NN

+

m

1-m

xd(t)

x(t)

Figure 1.16: Architecture proposée par (Kim and Oh, 1995).

35

Page 53: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

7.1.2 Réseaux de neurones pour l'adaptation des paramètres du contrô-

leur

Dans cette section, un résumé est présenté des approches observées dans la litté-

rature sur l'utilisation des réseaux de neurones pour le réglage des paramètres du

contrôleur sliding mode tels que λ la pente de la surface de glissement et K le gain

du régulateur.

Un exemple est proposé par (Karakasoglu and Sundareshan, 1995) dans lequel un ré-

seau de neurones est d'abord formé à apprendre les dynamiques inverses du système

et utilisé ensuite comme un contrôleur latéral en cascade avec le système commandé

(cf. Figure 1.17).

Un réseau de neurones récurent avec une couche cachée est proposé pour ajuster le

gain du contrôleur pour maintenir le système sur la surface de glissement (Psaltis

et al., 1988).

xd(t)

G

+Réseau Réccurent Sliding mode

e(t)Robot

x(t)K u(t)

Figure 1.17: Architecture proposée par (Karakasoglu and Sundareshan, 1995).

7.2 Application de la logique �oue dans la commande sliding

mode

L'intégration d'un système �ou dans une commande sliding mode est considérée dans

de nombreux exemples où une tentative de résoudre les di�cultés de mise en ÷uvre de la

commande sliding mode est faite via l'ajout du système �ou.

Quelques architectures sont citées dans ce qui suit ou nous pouvons les classer en des

approches indirectes ou la logique �oue joue un rôle secondaire dans la conception du

contrôleur sliding mode et des approches directes ou le contrôleur sliding mode est conçu

sur la base d'un contrôleur �ou.

7.2.1 Approches indirectes

Dans les approches indirectes, la logique �oue est utilisée pour remplir une fonction

secondaire ( réglage des paramètres, élimination du chattering).

36

Page 54: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

(A) Logique �oue pour le réglage des paramètres de la commande sliding

mode :

Les e�ets des paramètres de conception sur les performances du système sont très

clairs. Par exemple, le paramètre λ détermine la pente de la surface de glissement

et, par conséquent, plus il est grand, plus rapide sera la réponse du système , mais

une trop grande valeur de ce paramètre peut entraîner l'instabilité.

(Erbatur et al., 1996) ont suivi une telle approche pour le contrôle de trajectoire d'un

robot manipulateur. Les entrées du contrôleur �oue utilisé sont la valeur absolue de

l'erreur de position, la valeur absolue de la surface de glissement s, et une variable

dé�nie comme la variation cumulative du chattering. Le système d'adaptation �oue

délivre les valeurs de λ et le gain K.

Dans (Choi and Kim, 1997) un contrôleur sliding mode �oue à temps discret est mis

en ÷uvre pour le contrôle des vibrations avec un actionneur à �lm piézoélectrique.

(B) Logique �oue pour la modélisation des incertitudes :

Un certain nombre de chercheurs ont proposé d'utiliser la logique �oue dans ce

contexte.

Par exemple, dans (Chen and Chen, 1998), une architecture �oue est utilisée de

façon adaptative pour modéliser les non-linéarités des systèmes qui ont des incerti-

tudes inconnues.

Dans le schéma proposé, la limite de l'erreur de modélisation qui résulte de l'erreur

entre le système �ou et le système non linéaire réel (pendule inversé) est identi�ée

d'une manière adaptative. En utilisant cette borne, un signal de commande sliding

mode est calculé. L'approche proposée dans (Yu et al., 1998) est similaire.

L'utilisation des approximateurs �ous (Wang, 1994) dans la modélisation des in-

certitudes est également connue dans la littérature. Par exemple, dans (Yoo and

Ham, 1998), deux contrôleurs adaptatifs sliding modes avec deux systèmes �ous

(approximateurs)sont conçus.

(C) Complémentarité entre un contrôleur �ou et un contrôleur sliding mode :

Certaines approches observées dans la littérature comprennent des systèmes �ous

comme contrôleurs complémentaires aux contrôleurs sliding mode. Tout d'abord, la

commande sliding mode est conçue, ensuite, un contrôleur �ou supplémentaire est

utilisé pour améliorer les performances et éliminer le chattering.

Dans (Ha, 1996), un tel régime est présenté pour les systèmes linéarisés sou�rant

d'incertitudes, un contrôleur sliding mode combiné avec un contrôleur �ou est utilisé

pour compenser l'in�uence de la dynamique non modélisée et le chattering.

L'approche dans (Ha, 1996) est généralisée à une classe de systèmes non-linéaire

dans (Ha, 1997) où les simulations sur un robot manipulateur sont présentées.

37

Page 55: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

7.2.2 Approches directes

Une quantité appréciable de travail est vue dans la littérature, dans laquelle une tech-

nique intelligente est utilisée directement dans la conception d'un système de commande

sliding mode.

Dans certaines de ces approches, la base des règles est construite sur les variables s et

s (la dérivée de s). Ces approches sont utilisées pour conduire les états du système à

une surface de glissement. Dans (Hwang and Lin, 1992), les auteurs ont proposé cette

approche pour la conception d'un contrôleur sliding mode �ou. Les entrées du contrôleur

�ou proposé sont fuzzi�ées à partir de s et s et la sortie est ∆u (changement de u).

7.3 Réglage des paramètres du contrôleur sliding mode avec les

algorithmes génétiques

Les algorithmes génétiques ont été utilisés pour le réglage et l'optimisation des para-

mètres du contrôleur sliding mode.

Par exemple (Li et al., 1996) décrit les di�cultés dans la conception de la commande

sliding mode et donne des directives sur l'utilisation des algorithmes génétiques. Il pré-

sente en détail, deux exemples pratiques sur l'utilisation des algorithmes génétiques dans

la construction du contrôleur sliding mode.

Une structure sliding mode �oue est considérée dans (Lin and Chen, 1997) dans laquelle

les prémisses sont des ensembles �ous sur la variable de glissement et les conclusions sont

la sortie du contrôleurs. Deux méthodes de conception des contrôleurs sliding mode �ous

basées sur les algorithmes génétiques sont étudiées dans cette approche.

7.4 Synthèse de l'utilisation des réseaux RBF pour la commande

sliding mode

Les réseaux de neurones RBF ont été beaucoup utilisés pour la commande sliding

mode des systèmes non linéaires, soit pour estimer les paramètres incertains du modèle,

soit pour estimer la partie corrective de la commande. Une autre application de ces réseaux

est dans l'estimation de la borne des incertitudes et perturbations d(t).

Nous avons essayé de réaliser une synthèse non exhaustive de quelques unes de ces

applications dans la Table 1.2. La comparaison se porte sur les critères suivants :

(A) Estimation de la commande sliding mode par réseaux RBF.

(B) Estimation de la commande équivalente par les réseaux RBF.

(C) Estimation de la commande corrective par les réseaux RBF.

(D) Détermination du nombre de neurones N automatiquement.

(E) Utilisation d'un algorithme d'apprentissage en ligne.

38

Page 56: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

(F) Robustesse envers les incertitudes.

(G) Élimination du chattering.

(H) Hybridation avec d'autres techniques de l'intelligence computationnelle.

En analysant la Table, nous pouvons ressortir avec les constatations suivantes :

• Le recours aux réseaux RBF pour la commande sliding mode a connu un nouveau

essor dans les trois dernières années surtout pour la commande des nouveaux sys-

tèmes (éolienne, robots bipèdes, navires, plateforme de forage).

• La majorité des auteurs ont choisi d'appliquer les RBF pour calculer la commande

équivalente en estimant les paramètres du modèle.

• Seulement 03 approches (3, 4 et 11) ont utilisé les réseau RBF pour calculer la com-

mande sliding mode globale en calculant la sortie du réseau u(t) en minimisant un

critère E = s.s.

• Toutes les approches avec un algorithme d'apprentissage en ligne, utilisent une règle

d'adaptation dérivée de l'algorithme rétro-propagation.

• Les approches 9 et 10 utilisent les réseaux RBF pour estimer la forme des incerti-

tudes au lieu d'estime les paramètres du modèle.

• Les approches comparées ont un seul inconvénient en commun, le nombre des neu-

rones est déterminé empiriquement, ce qui diminue les performances de la com-

mande.

39

Page 57: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

Table1.2:

Synthèse

desapprochesslidingmodeavec

réseauxRBF.

NApproche

Contribution

(A)

(B)

(C)

(D)

(E)

(F)

(G)

(H)

1AdaptiveRBFnetwork

controlforrobotmanipulators,(Fateh

etal.,2014)

Estim

erlesincertitudes

avec

un

RBF(1)1

−+

−−

++

+−

2RBFneuralnetwork

basedslidingmodecontrolofalower

limb

exoskeletonsuit,(Songetal.,2014)

RBF(5)pourestimer

legainK

−−

+−

−−

+−

3Adaptiveneuralnetwork

motioncontrolofmanipulators

with

experim

entalevaluations,(PugaGuzmanetal.,2014)

RBF(20)pourestimer

lacom-

mandeu

+−

−−

+−

+−

4Adaptiveneuralslidingmodecontrolofactivepow

er�lter,(Fei

andWang,2013)

Estim

ela

commandeuparRBF

àbase

deRP

+−

−−

−+

−−

5RBFneuralnetwork

ofslidingmodecontrolfortime-varying

2-dofparallel

manipulatorsystem

,(C

henandWo,2013)

modèleestiméparRBFet

fonc-

tionsatpouruc

−+

+−

−+

+−

6Slidingmodeneuro

adaptivecontrolin

trajectory

trackingfor

mobilerobots,(Rossomandoetal.,2013)

Estim

erueqparRBF

−+

−−

++

+−

7Network-BasedNeuralAdaptiveSlidingModeController

for

theShip

SteeringProblem,(Xia

andWu,2013)

Estim

erueq

par

RBF(10),

uc

�ouesinécessaire

−+

−−

++

−−

8Neuralfuzzyslidingmodecontrolforarobotmanipulator,

(HuandLu,2012)

Estim

ermodèledynamiquepar

RBF(N

2 )−

+−

−+

++

+

9Adaptiveneuralnetwork

slidingmodecontrolbasedonpar-

ticlesw

arm

optimizationforrotary

steeringdrillingstabilized

platform

,(Zhangetal.,2012)

Estim

erla

borne

des

incerti-

tudes

parRBF(N

),optimiser

pa-

ramètresparPSO

−+

−−

−+

−+

10

TerminalSlidingModeControlforSTTMissileBasedonRBF

NeuralNetwork,(Shietal.,2012)

Estim

erlabornedes

incertitudes

parRBF(N

)−

+−

−−

++

11

RBF

neuralnetwork

slidingmodecontrolforvariable-speed

adjustable-pitch

system

ofwindturbine,(JiaoandWang,

2010)

Estim

erla

commandeu

par

RBF(N

)+

−−

−−

+−

12

ARBFneuralnetwork

slidingmodecontroller

forsm

aactua-

tor,(TaiandAhn,2010)

Estim

erueqparRBF(13),σest

déterminépark-m

eans

−+

−−

−+

+−

13

Anew

rbfnetwork

basedsliding-m

odecontrolofnonlinear

system

s,(B

eyhanandAlci,2009)

RBF(N

)pourestimer

ueq

par

Levenberg-M

arquardth

−+

−−

−+

−−

14

Internalmodel

controlofpm

synchronousmotorbasedonrbf

network

optimized

bygenetic

algorithm,(Lietal.,2007)

Optimiser

RBF(12)parlesAG

−+

−−

−−

++

15

Adaptiveneuralnetwork

basedfuzzyslidingmodecontrolof

robotmanipulator,(A

kandCansever,2006a)

ueqestimée

parRBF(N

)et

uc

�oue

−+

+−

++

++

Légende:

1unréseauRBFavec

unneuronecaché

2Nombre

des

neurones

estem

piriquemaispasmentionné.

−:Inconvénient,+

:Avantage.

40

Page 58: Approches de l'intelligence artificielle pour la commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande

8 Conclusion

Dans ce chapitre, nous avons présenté un état de l'art sur les techniques de l'intelligence

computationnelle en particulier les réseaux de neurones RBF, logique �oue et algorithmes

évolutionnaires. Nous avons aussi présenté le principe de la commande PID et la com-

mande sliding mode. Cette commande sou�re de quelques limites que les chercheurs ont

essayé de résoudre par les techniques intelligentes. La dernière section de ce chapitre a été

consacrée aux di�érentes architectures et applications de ces techniques. Une attention

particulière a été prêtée aux réseaux RBF dans la commande sliding mode des systèmes

non linéaires où une synthèse a été présentée en comparant quelques approches récentes.

Parmi les solutions aux problèmes de la commande sliding mode, la présente thèse se

concentre sur une solution à base de réseaux de neurones RBF. Les performances de cette

solution sont conditionnées par l'e�cacité de l'algorithme d'apprentissage.

Les chapitre 2 et 3 présentent une amélioration de deux algorithmes évolutionnaires

pour les utiliser ensuite pour l'apprentissage des réseaux de neurones RBF dans le chapitre

4. Le dernier chapitre détaillera un algorithme d'apprentissage en ligne et son utilisation

dans une architecture à base de réseaux RBF et logique �oue pour la commande sliding

mode.

Cette énumération des chapitres sort de l'ordinaire, mais elle est faite dans le souci

de montrer l'interaction du premier chapitre avec l'ensemble des autres chapitres (cf.

Figure 1).

41

Page 59: Approches de l'intelligence artificielle pour la commande

Chapitre 2

Optimisation biogéographique basée sur

le modèle prédateur et proies amélioré

1 Introduction

L'optimisation est l'une des branches les plus importantes des mathématiques appli-

quées, elle a été le sujet de nombreuses recherches à la fois pratiques et théoriques. La

résolution d'un problème d'optimisation consiste à explorer un espace de recherche a�n

de minimiser (maximiser ) une fonction donnée.

Parmi ces problèmes les plus connus dans le domaine de l'automatique, nous citons

le problème de trouver la combinaison optimale des gains d'un contrôleur PID. Pour

résoudre ce problème et palier à la limite de la commande PID (Les gains sont ajustés

empiriquement), divers algorithmes inspirés de la nature ont été appliqués.

Depuis les algorithmes génétiques (AG) et Particules d'essaims (PSO) en passant par

les colonies de fourmis (ACO), Di�erential Evolution (DE) jusqu'aux algorithmes déve-

loppés récemment, comme les colonies d'abeilles arti�cielles (ABC) et l'optimisation par

la biogéographie (BBO). Une étude comparative de quelques approches méta-heuristiques

pour le problème de l'optimisation du PID est donnée dans (Nagaraj and Vijayakumar,

2011).

Nous avons essayer de dresser un résumé des récentes approches naturelles d'optimisa-

tion pour le réglage du contrôleur PID. La Table 2.1 représente pour chaque algorithme,

le système utilisé ainsi que l'algorithme comparé. La plupart des approche sont comparées

aux algorithmes génétiques et avec la méthode conventionnelle Ziegler Nichols.

L'optimisation basée sur la biogéographie (BBO) est parmi les algorithmes d'optimi-

sation les plus récents (Simon, 2008). Il est basé sur le mouvement des espèces entre les

écosystèmes à la recherche d'endroits habitables.

Ce chapitre est consacré à la présentation d'un algorithme hybride entre l'algorithme

BBO et le modèle prédateur et proies qui est un algorithme d'optimisation de voisinage.

L'objectif de cette hybridation est d'accroître l'e�et de la diversi�cation représenté dans

42

Page 60: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

l'optimisation par la biogéographie (BBO) par l'opérateur de la mutation. L'algorithme

résultant a été appliqué pour l'optimisation des paramètres d'un contrôleur PID des sys-

tèmes non linéaires (Masse-Ressort-Amortisseur et pendule inversé).

Table 2.1: Méta-heuristiques pour l'optimisation d'un PID

Algo Approche Système Comparaison

AG (Kim, 2008) Système d'osmose inversé Ziegler-Nichols

(Yin et al., 2004) Système sous-amorti

(Zain et al., 2009) Bras manipulateur �exible

DE (Ruijun, 2009) Système de premier ordre PSO

(Youxin and Xiaoyi, 2010) Servo-moteur

ACO (Soundarrajan et al., 2010) Moteur à courant continu

(Berbaoui et al., 2011) Filtre actif

PSO (GirirajKumar et al., 2010) Perceuse Ziegler Nichol

(Solihin et al., 2011) Moteur DC Ziegler Nichol

(Lahoty and Parmar, 2013) Système FOPDT Ziegler Nichol, AG

ABC (Gozde et al., 2010) AVR

(Sundareswaran, 2008). Moteur à courant continu AG

BBO (Salem and Khel�, 2012) Pendule inversé AG

2 Optimisation basée sur la biogéographie

L'optimisation basée sur la biogéographie (BBO) est un algorithme stochastique d'op-

timisation motivé par les mécanismes de la migration des écosystèmes. Elle est inspirée

des modèles mathématiques de la biogéographie et elle a été initialement développée par

D. Simon (Simon, 2008). Cet algorithme appartient à une famille des algorithmes évolu-

tionnaires dont le but est d'obtenir une solution optimale à un problème d'optimisation

par un processus évolutionnaire.

2.1 Biogéographie

La Biogéographie est l'étude de la distribution de la biodiversité dans l'espace et dans

le temps, ce qui permet aux nombreuses espèces animales de migrer vers di�érents habitats

ou îles pour leur survie et une meilleure vie. La biogéographie a été étudiée dès le 19me

siècle par Alfred Wallace et Charles Darwin (Macarthur and Wilson, 1967).

Dans le début des années 60, (Macarthur and Wilson, 1967) ont développé les modèles

mathématiques de la biogéographie, ce qui lui permet de prospérer comme un important

domaine de recherche.

43

Page 61: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Dans la science de la biogéographie, une île est dé�nie comme la zone écologique

habitée par des plantes particulières ou d'espèces animales et géographiquement isolée

d'autres habitats. Chaque île a ses caractéristiques telles que la disponibilité alimentaire,

les précipitations, la température, la diversité des espèces, la sécurité, etc. (cf. Figure 2.1).

La qualité d'une île est mesurée par son indice d'adéquation (Suitability Index). Les

îles avec un indice élevé sont plus adaptées à la vie et ont donc une grande population

(Macarthur and Wilson, 1967).

Figure 2.1: Migration des espèces (Simon, 2008)

2.2 Optimisation et biogéographie

L'application de la biogéographie dans l'optimisation est un exemple d'un modèle

de processus naturel pour résoudre les problèmes d'optimisation. Ceci est similaire à ce

qui s'est passé dans les dernières décennies avec les algorithmes génétiques, réseaux de

neurones, les colonies de fourmis et d'autres domaines de l'intelligence informatique (Ma

et al., 2013).

L'optimisation par la biogéographie (BBO) utilise un vocabulaire similaire à celui de la

biogéographie (cf. Table 2.2) où chaque habitat est analogue à une solution du problème.

Les caractéristiques des solutions (variables de décision) sont appelées variables d'indice

d'adéquation (SIV). L'indice d'adéquation de l'habitat (HSI) est analogue au �tness qui

permet de mesurer l'adéquation de l'individu.

Les habitats avec un HSI élevé ont tendance à avoir un grand nombre d'espèces, un

taux d'immigration faible et un taux d'émigration élevé. Inversement, les habitats avec

un HSI faible ont un faible nombre d'espèces, un taux d'immigration élevé et un taux

d'émigration faible (Simon, 2008).

L'algorithme BBO nécessite l'emploi de certains termes dont il est utile de préciser la

dé�nition.

44

Page 62: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Table 2.2: Terminologie de la BBO

La Biogéographie Algorithme BBO

Habitat ou île Solution du problème

HSI Qualité de la solution (fonction coût)

SIV Les Variable du problème d'optimisation

2.2.1 Variable d'indice d'adéquation

Une variable d'indice d'adéquation (SIV ) est une variable entière, réelle où booléenne

qui caractérise l'habitabilité d'une île (Simon, 2008).

2.2.2 Habitat

Un habitat H est une solution du problème représentée généralement par un vecteur

initialisé aléatoirement par des variable d'indice d'adéquation. Il est noté (Simon, 2008) :

H = [SIV1, SIV2, . . . , SIVK ] (2.1)

2.2.3 Population

Une population est un ensemble de n habitats (Simon, 2008).

Pop = [H1, H2, . . . , Hn] (2.2)

2.2.4 Indice d'adéquation de l'habitat

Un indice d'adéquation de l'habitat (HSI) équivalant au �tness, associe une valeur

pour chaque individu. Cette valeur à pour but d'évaluer le degré d'adaptation d'un indi-

vidu à son environnement (Simon, 2008).

HSI = f(H) = f(SIV1, SIV2, ..., SIVK) (2.3)

2.2.5 Taux d'immigration

Le taux d'immigration λ(Hi) est le taux d'entrée des variables (SIV) à un habitat.

2.2.6 Taux d'émigration

Le taux d'émigration µ(Hi) est le taux de sortie des variables (SIV) d'un habitat.

45

Page 63: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Initialisationdes paramètres

Initialisation dela population

Évaluation de la HSI

Critère d'arrêt ? Solution optimale

Sélection

Migration

Mutation

Évaluer la HSI

Génération i + 1

Non

Oui

Figure 2.2: Organigramme général de l'algorithme BBO

2.3 Étapes de l'optimisation basée sur la biogéographie

L'organigramme fonctionnel présenté dans la Figure 2.2, illustre la structure générale

de l'algorithme BBO.

L'algorithme commence par initialiser les paramètres et la population initiale, il modi-

�e cette population par des opérateurs spéci�ques en construisant de nouvelles population

jusqu'à atteindre une qualité (HSI) meilleure qu'un seuil pré�xé ou un nombre maximal

de générations gmax.

2.3.1 Initialisation

Dans cette étape, nous dé�nissons les paramètres de contrôle (cf. Table 2.3) et nous

générons aléatoirement une population initiale de n habitats. La taille de cette population

reste constante tout le long de l'algorithme (Simon, 2008).

46

Page 64: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Table 2.3: Paramètres de la BBO

Paramètre Notation

n La taille de la population

gmax Le nombre de générations

I Le taux maximum possible d'immigration

E Le taux maximum possible d'émigration

mmax Le taux maximum de la mutation

smax Le nombre maximum des espèces dans l'habitat.

2.3.2 Évaluation de la fonction HSI

Pour évaluer la pertinence d'une solution par rapport à une autre, nous calculons la

valeur de la HSI correspondante à chaque solution candidate (Simon, 2008).

2.3.3 Sélection

Pour appliquer les opérateurs de l'algorithme BBO comme n'importe quel autre algo-

rithme évolutionnaire, nous devons sélectionner les habitats ou individus candidats à cet

opérateur.

La sélection est fondée sur la qualité des habitats, estimée à l'aide de fonction d'adap-

tation. Il existe plusieurs méthodes de sélection (Mitchell, 1998).

• Sélection par roulette

La population est représentée comme une roue de roulette, où chaque habitat est repré-

senté par une portion qui correspond proportionnellement à son valeur de HSI (�tness).

La sélection d'un individu se fait en tournant la roue. L'un des inconvénients de ce type

de sélection est de choisir presque toujours le même habitat s'il en existe un bien meilleur

que tous les autres, ce qui cause une perte de diversité dans la population (Miller and

Goldberg, 1995).

• Sélection par rang

La sélection par rang trie d'abord la population par HSI. Ensuite, chaque habitat se

voit associé un rang en fonction de son position. Ainsi le plus mauvais habitat aura le

rang 1, le suivant 2, et ainsi de suite jusqu'au meilleur habitat qui aura le rang n. La

sélection par rang d'un habitat est la même que par roulette, mais les proportions sont

en relation avec le rang plutôt qu'avec la valeur de l'évaluation. Avec cette méthode de

sélection, tous les habitats ont une chance d'être sélectionnés. Cependant, elle conduit à

une convergence plus lente vers la bonne solution. Ceci est dû au fait que les meilleurs

habitats ne di�èrent pas énormément des plus mauvais (Miller and Goldberg, 1995).

• Sélection par tournoi

47

Page 65: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

La sélection par tournoi est l'une des sélections les plus utilisées dans les algorithmes

évolutionnaires. Le principe consiste à choisir un sous-ensemble d'individus (S individus)

aléatoirement dans la population, puis à sélectionner le meilleur individu dans ce groupe

en fonction de son HSI. Ce processus est répété jusqu'à l'obtention du nombre d'individus

requis (Miller and Goldberg, 1995). Le nombre de participants à un tournoi, appelé la

taille du tournoi, est utilisé pour faire varier la pression de cette sélection. Si ce nombre

est grand, alors la pression sera forte et les faibles individus auront une petite chance

d'être choisis. En général, un seul gagnant est choisi parmi les participants à un tournoi.

• Élitisme

A la création d'une nouvelle population, il y a de grandes chances que les meilleurs

habitats soient perdus après les opérations de migration et de mutation. Pour éviter cela,

nous utilisons la méthode d'élitisme. Elle consiste à copier un ou plusieurs des meilleurs

habitats dans la nouvelle génération. Ensuite, nous générons le reste de la population

selon le mécanisme de reproduction usuel.

L'opérateur de sélection est utilisé pour sélectionner des habitats pour appliquer les

deux opérateurs d'évolution : la migration et la mutation.

2.3.4 Opérateur de migration

La migration est un opérateur probabiliste utilisé pour modi�er chaque solution Hi

en partageant des caractéristiques parmi les di�érentes solutions. L'idée de l'opérateur de

migration est basée sur la migration en biogéographie, qui représente le mouvement des

espèces entre les di�érents habitats.

La probabilité qu'une solution est sélectionnée pour immigrer ou émigrer dépend de

son taux d'immigration λi ou le taux d'émigration µj (Ma et al., 2013).

Le processus de migration est dé�ni par la relation :

Hi(SIVk)← Hj(SIVk) (2.4)

L'équation (2.4) représente comment une caractéristique ou SIV d'une solution Hi est

remplacée par une caractéristique ou SIV d'une solution Hj par l'opération de migration.

Dans la BBO, chaque solution Hi a son propre taux d'immigration λi et taux d'émigra-

tion µi . Ces deux taux sont calculés par l'équation (2.5) et l'équation (2.6) respectivement.

λi = I(1− kin

) (2.5)

µi = E(kin

) (2.6)

I et E représentent les taux maximaux possibles d'immigration et d'émigration respecti-

vement.

48

Page 66: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

ki représente le rang du ime habitat après le tri de tous les habitats en fonction de leur

HSI.

n représente la taille de la population. La Figure 2.3 illustre deux solutions candidates

S1 et S2 à un problème en utilisant des courbes d'immigration et d'émigration symétriques

(E = I).

S1 représente une mauvaise solution et S2 représente une meilleure solution. La probabilité

d'immigration pour S1 sera donc plus élevée que celle de S2 tandis que la probabilité

d'émigration pour S1 sera inférieure à la probabilité d'émigration pour S2 (Simon, 2008).

λ

µ

S1 Espèces S2

E = I

Taux

Smax

Figure 2.3: Illustration de deux solutions candidates S1 et S2

2.3.5 Opérateur de mutation

En plus de l'opérateur de migration, nous avons l'opérateur de mutation. La mutation

est un opérateur probabiliste utilisé pour modi�er un ou plusieurs SIV d'une solution sé-

lectionnée aléatoirement en se basant sur sa probabilité d'existence Pig pour la génération

g. Cet opérateur aide à introduire de nouvelles caractéristiques et augmente la diversité

dans la population (Simon, 2008).

La probabilité de mutation mi est calculée en fonction de la probabilité de la solution

exprimée dans l'équation (2.7).

mi = mmax(1−PigPmax

) (2.7)

où :

mi : Le taux de mutation pour l'habitat i.

mmax : Le taux maximum de mutation.

Pmax : La probabilité maximale d'existence.

Avant d'appliquer l'opérateur de la mutation, nous devons calculer Pig, la probabilité

d'existence de l'habitat i dans la génération actuelle g. Ce paramètre est calculé à partir

de sa valeur dans la génération précédente par l'équation (2.8).

Pig = Pig−1 + Pig (2.8)

49

Page 67: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Les valeurs de Pi avant le début de l'algorithme sont initialisées à 1/n pour chaque habi-

tat (Simon, 2008).

Pi est le changement de probabilité d'existence de l'habitat i, il est donné par l'équa-

tion (2.9) (Simon, 2008) :

Pi =

−(λi + µi)Pi + µi+1Pi+1 i = 1

−(λi + µi)Pi + λi−1Pi−1 + µi+1Pi+1 2 ≤ i < n

−(λi + µi)Pi + λi−1Pi−1 i = n

(2.9)

3 Modèle Prédateur et Proies

3.1 Origine du modèle prédateur et proies

L'idée de base du modèle prédateur et proies (P&P ) est d'imiter le comportement des

animaux dans la nature où, les prédateurs chassent pour survivre .

Les proies de leurs part, ont tendance à fuir des endroits où il y a des prédateurs et

explorent de nouveaux endroits sûrs pour survivre elles aussi (cf. Figure 2.4).

Figure 2.4: Exemples des prédateurs et proies.

3.2 Optimisation par le modèle prédateur et proies

L'algorithme d'optimisation par le modèle prédateur et proies est un algorithme d'op-

timisation de voisinage inspiré du phénomène naturel où un prédateur capture les proies

les plus faibles, ce qui signi�e qu'un prédateur élimine la proie la plus proche de sa posi-

tion (cf. Figure 2.5), qui correspond à la plus mauvaise valeur de la fonction objectif dans

un problème d'optimisation (Silva et al., 2010).

L'application du modèle prédateur et proies pour un problème d'optimisation peut

être résumée comme suit :

50

Page 68: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

1. Calculer la position du prédateur dans l'espace de recherche par rapport à la mau-

vaise solution en utilisant l'équation :

xpredg = xmauvg + ρ(1− g

gmax) (2.10)

où ρ est une constante de taux de chasse, g est la générations courante et gmax est

le nombre maximum des générations.

2. Faire fuir les proies de la position du prédateur (déplacer les proies). Les nouvelles

positions sont données par :

xig+1 =

{xig + ρe−|d| d > 0

xig − ρe−|d| d < 0(2.11)

où d est la distance entre la proie et le prédateur.

3. Répéter les étapes 1 et 2 jusqu'à atteindre le critère d'arrêt.

Predateur(Mauvaise solution)

Anciennes positions des proies

Nouvelles positions des proies

Mouvements des proies

Figure 2.5: Modèle prédateur et proie.

4 Hybridation de l'algorithme BBO par le modèle pré-

dateur et proies amélioré

Dans cette section, nous allons présenter un algorithme d'optimisation (PMBBO) basé

sur l'hybridation de l'algorithme BBO et le modèle Prédateur et Proies amélioré (Salem

and Khel�, 2014c), (Salem and Khel�, 2014b). En e�et, deux modi�cations majeures ont

été introduites dans l'algorithme BBO originalement développé par (Simon, 2008) :

D'abord, une modi�cation de l'opérateur de migration où l'opérateur original présenté

dans l'équation (2.4) est remplacé par un nouvel opérateur permettant d'empêcher la dé-

51

Page 69: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

térioration des meilleures solutions.

Le second changement proposé est de remplacer l'opérateur de mutation par un mo-

dèle prédateur et proies amélioré a�n d'assurer la diversi�cation. Cette modi�cation est

motivée par le fait que les espèces naturelles essayent toujours de trouver les endroits ha-

bitables en s'éloignant le plus possible de leurs prédateurs. L'algorithme PMBBO proposé

est décrit dans la Figure 2.6 (Salem and Khel�, 2014c).

4.1 Nouvel opérateur de migration

Dans (Sayed et al., 2012), une modi�cation de l'opérateur de migration a été proposée

en se basant sur les travaux de (Ma and Simon, 2011). L'opérateur proposé permet non

seulement de reconstruire les solutions existantes mais aussi de fournir de nouvelles solu-

tion a�n d'augmenter la diversi�cation. Cet opérateur permet de partager les informations

entre les habitats i et j comme le montre l'équation (2.12) (Salem and Khel�, 2014c) :

Hj (SIVc)← (kj

ki + kj)Hj (SIVc) + (1− kj

ki + kj)Hi (SIVc) , c = 1..nsiv. (2.12)

où ki et kj sont les rangs des habitats i et j.

Un nouvel opérateur de migration est proposé pour sauvegarder les meilleurs solutions et

d'en créer de nouvelles.

Cet opérateur permet aux meilleurs solutions de partager leurs informations en se

basant sur leurs qualité par rapport à la totalité des solutions. Ce partage est décrit dans

l'équation (2.13) (Salem and Khel�, 2014c) :

Hj (SIVc)← (n− kjn

)Hj (SIVc) + (kjn

)Hi (SIVc) (2.13)

4.2 Amélioration du modèle prédateur et proies

A�n d'appliquer le modèle prédateur et proie dans l'optimisation par la biogéographie,

nous proposons d'apporter quelques améliorations au modèle prédateur et proies classique.

Ces modi�cations se rapportent à la nature des prédateurs, leur nombre, la valeur du

taux de chasse et le déplacement des proies (Salem and Khel�, 2014b).

• Initialiser les prédateurs par les meilleures solutions :

Le modèle prédateur et proies est une méthode d'optimisation à base de voisinage,

pour cela le principe est de faire éloigner les proies de la mauvaise solution pour en

trouver des meilleures.

Dans notre cas, ce modèle est utilisé pour faire partie d'un autre algorithme d'opti-

misation où l'objectif est de s'éloigner des minima locaux ce qui nous conduit à la

dé�nition du prédateur à la meilleure solution.

52

Page 70: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

• Utiliser un groupe de prédateurs :

Nous proposons de considérer un ensemble de prédateurs (Meilleures solutions).

Cette proposition est faite pour imiter le comportement des prédateurs qui par na-

ture, chassent en groupes et qu'il est fort probable d'avoir plusieurs minima locaux.

Il s'agit de faire éloigner les solutions se trouvant dans l'entourage de nbpred meilleures

solutions pour ne garder qu'une solution dans chaque emplacement.

Soit nbpred le nombre de prédateurs initialisé au nbpred meilleures solutions après clas-

sement. L'équation (2.10) sera remplacée par l'équation (2.14) (Salem and Khel�,

2014c) :

Hpredi = Hbi + ρ

(1− g

gmax

)i = 1..nbpred. (2.14)

• Déplacement aléatoire des proies :

Si nous étudions de prés le déplacement classique des proies dans le modèle préda-

teur et proies, il est clair qu'il a le même e�et que l'opérateur de migration de la

BBO (partager des informations entre solutions). Pour permettre aux solutions du

voisinage d'explorer d'autres parties de l'espace de recherche, une modi�cation de

la formule de déplacement (2.13)) s'impose.

Considérons une solution prédateur, l'idée est d'au lieu d'e�ectuer un petit déplace-

ment des proies, nous allons créer aléatoirement de nouvelles solutions à partir des

solutions avoisinantes du prédateur.

Les nouvelles solutions seront crées par l'équation (2.15) en introduisant une variable

aléatoire γ (Salem and Khel�, 2014b).

Hig+1 = Hig + γρe−|dm|(Himax −Himin) ig /∈ [1..nbpred]. (2.15)

où dm est la distance entre la proie Hig et le prédateur le plus proche donnée par

l'équation (2.16).

dm =nbpred

minj=1

d(Hig , Hpredj) (2.16)

Himinet Himax sont les bornes minimale et maximale possibles pour les variables de

décision de l'habitat H, γ est une valeur aléatoire entre −1 et 1 (Salem and Khel�,

2014c).

• Taux de chasse variable :

Puisque le besoin de diversi�cation décroît au long des générations au dépend de

l'intensi�cation, le taux de chasse ρ est choisi décroissant en fonction du nombre des

générations selon la formule (2.17) (Salem and Khel�, 2014c).

ρ =1

g(2.17)

53

Page 71: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

où g est la génération actuelle et gmax est le nombre maximum de générations.

La Figure 2.7 montre un schéma explicatif du modèle prédateur et proie amélioré avec un

groupe de prédateurs au lieu d'un (Salem and Khel�, 2014c).

input : gmax, nsiv ,nbpredoutput : Optimal solution

1 Initialize gmax, nsiv ,nbpred;2 Initialize start islands.;3 while g < gmax do4 //Migration;5 for each island i do6 Calculate HSIi;7 Calculate λi and µi by Equation (2.5) and (2.6);8 Apply the modi�ed migration operator using Equation (2.13);9 end10 //Predator and prey ;11 Calculate Predators positions by Equation(2.14);12 for each island i do13 Calculate distance to all predators ;14 Calculate dm by Equation (2.16);15 Update island using Equation (2.15) ;16 end17 end

Figure 2.6: Algorithme PMBBO

Predateurs(Meuileures solutions)

Anciennes positions des proies

Nouvelles positions des proies

Mouvements des proies

Figure 2.7: Modèle prédateur et proies amélioré.

54

Page 72: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

5 Réglage d'un contrôleur PID par l'approche PMBBO

Le réglage des paramètres d'un contrôleur PID peut être considéré comme un problème

d'optimisation où il s'agit de trouver la solution optimale des gains du contrôleur dans un

espace de recherche prédé�ni pour permettre au système de suivre une référence désirée.

Dans ce contexte, l'algorithme PMBBO peut être appliqué pour trouver la combinaison

optimale des gains proportionnel, intégral et dérivé Kp, Ki, Kd du contrôleur PID (Salem

and Khel�, 2014c).

L'espace de recherche dé�ni dans l'équation (2.18) est limité par les contraintes phy-

siques supportées par le système étudié.

Kp ∈ [Kpmin, Kpmax ]

Ki ∈ [Kimin, Kimax ]

Kd ∈ [Kdmin, Kdmax ]

(2.18)

5.1 Choix des fonctions objectifs

Le choix de la HSI (fonction coût) est conditionné par l'objectif à atteindre. Ces

objectifs sont �xés par les performances dé�nies dans le cahier des charges. Il s'agit géné-

ralement de l'erreur statique, du temps de montée, temps de réponse et du dépassement

maximum autorisé.

5.1.1 Fonctions basées sur l'erreur

Dans la littératures, Nous pouvons trouver une multitude de critères de performance

ou fonctions objectifs (HSI dans le cas de la BBO). La plupart de ces fonctions sont basées

sur l'erreur d'optimisation. Nous pouvons citer (Mitchell, 1998) :

- Intégral des carrées de l'erreur (ISE) :

ISE =

∫ +∞

0

e(t)dt (2.19)

- Intégral de l'erreur absolue (IAE) :

IAE =

∫ +∞

0

|e(t)|dt (2.20)

- Intégral du temps et carrées de l'erreur (ITSE) :

ITSE =

∫ +∞

0

te(t)dt (2.21)

55

Page 73: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

- Intégral du temps et erreur absolue(ITAE) :

ITAE =

∫ +∞

0

t|e(t)|dt (2.22)

Pour tous les critères, la meilleure réponse correspond à la valeur minimale du critère

choisi.

Dans tous ces cas, soit l'erreur absolue ou l'erreur quadratique sont utilisés parce que

l'intégration simple peut conduire à un résultat nul erroné dans le cas où le système a une

amplitude constante oscillatoire (Mitchell, 1998).

La fonction IAE est souvent utilisée dans le cas discret, mais elle est inapplicable pour

le cas continu parce que la valeur absolue d'une fonction d'erreur généralement n'a pas

une forme analytique. Ce problème est surmonté par le critère ISE (Mitchell, 1998).

Les fonctions ITAE et ITSE ont un opérateur de temps supplémentaire multiplié par la

fonction de l'erreur, ce qui met l'accent sur les erreurs de longue durée, et par conséquent,

ces critères sont le plus souvent appliqués dans le cas des systèmes nécessitant un temps

de réponse rapide (Lahoty and Parmar, 2013).

5.1.2 Fonction globale

Dans le cas où les objectifs à atteindre sont spéci�és en qualité d'erreur statique,

dépassement autorisé, temps de monté et temps de réponse, la fonction de l'équation (2.23)

est utilisée (Lahoty and Parmar, 2013).

fg = (1− eβ)(Omax + es) + eβ(Tr − Tm) (2.23)

où Tr et Tm sont le temps de réponse et de montée respectivement. Omax est le dépassement

maximum et es est l'erreur statique. β est une constante de pondération.

5.2 Architecture d'optimisation adoptée

Pour optimiser les paramètres du contrôleur PID, l'algorithme PMBBO va être appli-

qué. Lors de la première étape, la population initiale va être crée aléatoirement avec n

habitats contenant 3 variables de décision (SIV) : Kp, Ki, Kd.

Pour évaluer les habitats, nous injectons ces gains dans le contrôleur PID et nous

mesurons la sortie du système, cela nous permet de calculer les performances (Erreur,

temps de montée, temps de réponse et dépassement).

L'architecture d'utilisation de l'algorithme PMBBO pour le réglage des paramètres du

contrôleur PID est montrée dans la Figure 2.8 (Salem and Khel�, 2014b).

56

Page 74: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

yd(t)+

PIDe(t)

Systèmey(t)u(t)

PMBBO

Kp, Ki, Kd

Figure 2.8: Application de l'algorithme PMBBO pour le réglage des paramètres du PID.

6 Résultats de simulation

Pour évaluer l'algorithme proposé, nous allons l'appliquer pour ajuster les paramètres

d'un contrôleur PID pour commander deux systèmes non linéaires décrits dans l'annexe :

Le système masse-essort-Amortisseur et le pendule inversé.

L'évaluation sera e�ectuée par le biais de la fonction objectif ISE donnée en équa-

tion (2.19). Par la suite, nous présenterons une comparaison des performances de PMBBO

avec les algorithmes BBO, AG et MBBO (BBO avec l'opérateur de migration modi�é don-

née en Équation (2.13)) en utilisant la fonction HSI fg de l'équation (2.23).

6.1 Application de l'algorithme PMBBO avec le système Masse-

ressort-Amortisseur

A�n de commander le système Masse-Ressort-Amortisseur, nous avons appliqué l'al-

gorithme PMBBO pour optimiser les paramètres du contrôleur PID. La référence que le

système doit atteindre est xd = 1m. Les paramètres de l'algorithme PMBBO utilisé sont

montrés dans la Table 2.4.

L'évolution des minima de la fonction HSI (ISE) le long des 50 générations est donnée

dans la Figure 2.9. Le minimum atteint en 50 générations est de 9.371.

L'e�et apporté par le modèle prédateur et proie peut être constaté sur la Figure 2.10 où

nous pouvons remarquer que la distance entre la meilleure solution et la mauvaise décroît

le long des générations à cause de l'e�et de diversi�cation apporté par le modèle prédateur

et proies amélioré.

Les gains correspondants aux meilleures solutions sont représentés dans la Figure 2.11

où nous pouvons constater que la combinaison retenue est Kp = 47.2601,Ki = 8.4561 et

Kd = 3.9597.

Les positions désirées (xd = 1m) et réelle sont montrées dans la Figure 2.12 et les

erreurs correspondants sont en Figure 2.13. Les gains optimaux ont conduit le système à

57

Page 75: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

une convergence rapide vers la sortie désirée avec une erreur statique presque nulle et un

temps de réponse inférieur à 0.2s(Tr = 0.19s).

Table 2.4: Paramètres de la PMBBO, Masse ressort amortisseur

Paramètre Valeur

n 20

gmax 50

I,E 1

Intervalles de Kp, Ki, Kd [0..50]

Nombre de Prédateurs nbpred 4

HSI ISE

0 5 10 15 20 25 30 35 40 45 509

9.5

10

10.5

11

Générations

HSI

1

Figure 2.9: Évolution des meilleures HSI par PMBBO Masse ressort amortisseur.

0 5 10 15 20 25 30 35 40 45 508

10

12

14

16

18

Générations

HSI

Mauvaises solutionsMeilleures solutions

Figure 2.10: Évolution des mauvaises HSI par PMBBO, Masse ressort amortisseur.

58

Page 76: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

0 5 10 15 20 25 30 35 40 45 50−20

0

20

40

Générations

Gains

Kp

Ki

Kd

Figure 2.11: Évolution des gains du PID par PMBBO, Masse ressort amortisseur.

0 1 2 3 4 5 6 7 8 9 100

0.5

1

Temps(s)

positions

(m)

Position réellePosition désirée

Figure 2.12: Positions réelle et désirée du Masse ressort amortisseur par PMBBO.

0 1 2 3 4 5 6 7 8 9 10

0

0.5

1

Temps(s)

Erreuren

position(m

)

Figure 2.13: Erreurs en position du Masse ressort amortisseur par PMBBO.

59

Page 77: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

6.2 Application de l'algorithme PMBBO avec le pendule inversé

La deuxième application de l'algorithme proposé PMBBO est dans la commande du

pendule inversé. Nous avons appliqué l'algorithme PMBBO pour optimiser les paramètres

d'un contrôleur PID pour le pendule inversé.

L'objectif de la commande est de garder l'angle θ nulle pendant le mouvement du charriot

(θd = 0). Les paramètres de l'algorithme PMBBO utilisés sont montrés dans la Table 2.5.

L'évolution des minima de la fonction HSI (ISE) le long des 50 générations est donnée

dans la Figure 2.14 où nous pouvons remarquer que l'algorithme atteint son minimum

après 10 générations. Les gains correspondants au minimum obtenu sont dans la Fi-

gure 2.15.

Les gains obtenus par l'algorithme PMBBO sont utilisés pour la commande PID du pen-

dule inversé. L'objectif est de ramener la tige et la garder dans une position verticale .

L'erreur de régulation est présentée dans la Figure 2.16.

Nous pouvons remarquer la rapidité avec laquelle, la tige a atteint la position verticale

dans un temps de réponse de 0.05s et une erreur statique de 10−5Rad.

Table 2.5: Paramètres de la PMBBO, pendule inversé

Paramètre Valeur

n 20

gmax 50

I,E 1

Intervalles de Kp, Ki, Kd [0..50]

Nombre de prédateurs npred 6

HSI ISE

0 5 10 15 20 25 30 35 40 45 50

0.64

0.64

0.65

0.65

Générations

Min

HSI

Figure 2.14: Évolution des meilleures HSI de la PMBBO avec un pendule inversé).

60

Page 78: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Figure 2.15: Évolution des gains du PID pour la PMBBO avec un pendule inversé.

0 1 2 3 4 5 6 7 8 9 10

−0.3

−0.2

−0.1

0

Temps (s)

ErreurAngle(rad)

Figure 2.16: Erreurs en position angulaire θ par la PMBBO avec un pendule inversé).

6.3 Étude comparative de l'algorithme PMBBO

Les performances de l'algorithme PMBBO ont été comparées avec celles des algo-

rithmes génétiques (AG), optimisation par la Biogéographie (BBO) (Salem and Khel�,

2012), BBO Modi�é (MBBO). La comparaison a été réalisée dans les mêmes conditions

(Nombre d'évaluations, Taille de population, Population initiale). Les paramètres des al-

gorithmes utilisés dans la comparaison (BBO, MBBO, PMBBO et AG) sont représentés

dans la Table 2.6 et Table 2.7 respectivement.

Le système pendule inversé a été utilisé pour comparer les algorithme. Les erreurs en

position angulaire du pendule pour les algorithmes AG, BBO et PMBBO sont représentés

en Figure 2.17.

Pour e�ectuer la comparaison, chaque algorithme est exécuté 10 fois, chacune avec une

61

Page 79: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

population initiale di�érente. Les valeurs minimales de la fonction objectif (�tness pour

les AG et HSI pour les algorithmes à base de BBO) sont mentionnées dans la Table 2.8.

A partir de la Table 2.9, PMBBO a donné les meilleurs résultats avec des populations

initiales di�érentes par rapport aux autres algorithmes. Ceci est dû au modèle prédateur

et proie amélioré qui a permis d'éviter les minima locaux et a amélioré les performances

de la BBO.

D'un autre part, les résultats de l'algorithme MBBO (BBO avec opérateur de migration

modi�é) sont clairement meilleures que ceux du BBO, ce qui valide l'apport du nouvel

opérateur de migration.

Les résultats des 4 algorithmes sont détaillés dans la Table 2.8 en termes de performances

du système (temps de montée(Tm), temps de réponse (Tr) et dépassement(Omax)).

L'algorithme PMBBO a obtenu de meilleurs résultats que les AG en termes de temps

de montée pour toutes les exécutions, en temps de réponse (9 exécutions sur 10) et en

dépassement (7 exécutions sur 10)(cf. Table 2.9).

Table 2.6: Paramètres de BBO, MBBO et PMBBO pour la comparaison.

Paramètre BBO MBBO PMBBO

Nombre des Habitats N 20 20 20

Nombre des évaluations 104 104 104

SIVs 3 3 3

Coe�cient de mutation 0.1 0.1 /

E = I 1 1 1

Nombre de prédateurs npred / / 6

HSI fg fg fg

Table 2.7: Paramètres des algorithmes génétiques(AG) pour la comparaison

Paramètre Valeur

Chromosomes 20

Nombre des évaluations 104

Gênes 3

Taux de croisement 0.6

Type de croisement Deux points

Taux de mutation 0.01

Type de mutation bit �ip

Fitness fg

62

Page 80: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

Table 2.8: Coûts minimums des 10 exécutions pour les algorithmes AG, BBO, MBBOet PMBBO (fg).

Exécution AG BBO MBBO PMBBO

1 4.6e-03 4.5e-03 4.5e-03 4.2e-03

2 4.7e-03 4.5e-03 4.6e-03 4.2e-03

3 4.7e-03 4.3e-03 4.2e-03 4.1e-03

4 4.7e-03 4.2e-03 4.2e-03 4.1e-03

5 4.6e-03 4.2e-03 4.4e-03 4.1e-03

6 4.6e-03 4.3e-03 4.3e-03 4.1e-03

7 4.7e-03 4.3e-03 4.2e-03 4.0e-03

8 4.6e-03 4.3e-03 4.3e-03 4.1e-03

9 4.7e-03 4.3e-03 4.2e-03 4.1e-03

10 4.8e-03 4.2e-03 4.2e-03 4.1e-03

0 1 2 3 4 5 6 7 8 9 10−0.35

−0.3

−0.25

−0.2

−0.15

−0.1

−0.05

0

0.05

Temps (s)

Erre

ur A

ngla

ire (

rad)

GA

BBO

PMBBO

0 0.2 0.4 0.6 0.8 1

−0.04

−0.02

0

0.02

0.04

Figure 2.17: Erreurs en position angulaire(étude comparative du PMBBO).

Table 2.9: Performances du pendule inversé avec PID, étude comparative de la PMBBO

Exécution PMBBO AG

Min HSI Tm(s) Tr(s) Omax Min �tness Tm(s) Tr(s) Omax

1 0.579 0.061 0.160 0.012 0.619 0.056 3.465 0.014

2 0.579 0.064 0.175 0.012 0.592 0.058 0.158 0.014

3 0.577 0.064 0.194 0.014 0.672 0.059 1.783 0.018

4 0.577 0.064 0.172 0.011 0.646 0.056 0.175 0.020

5 0.575 0.064 0.178 0.012 0.670 0.055 1.730 0.020

6 0.581 0.065 0.208 0.015 0.632 0.077 2.301 0.008

7 0.579 0.064 0.180 0.012 0.640 0.068 4.117 0.014

8 0.581 0.064 0.191 0.014 0.602 0.061 0.167 0.013

9 0.580 0.066 0.197 0.014 0.634 0.058 4.360 0.011

10 0.568 0.065 0.178 0.012 0.606 0.060 0.164 0.013

63

Page 81: Approches de l'intelligence artificielle pour la commande

Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré

7 Conclusion

Dans ce chapitre, nous avons présenté un algorithme hybride (PMBBO) entre l'opti-

misation par la biogéographie (BBO) et le modèle prédateur et proies.

Des modi�cations ont été apportées, d'une part, à l'opérateur de migration du BBO

pour préserver les solutions d'être détériorées et d'autre part, au modèle prédateur et

proie pour l'adapter à l'hybridation. En e�et, le modèle prédateur et proies amélioré

di�ère largement du modèle original où un ensemble de prédateurs est considéré pour

accroitre la diversi�cation de l'algorithme hybride et accélérer le processus de trouver la

solution optimale en générant des habitats aléatoires.

L'algorithme obtenu a été utilisé pour l'optimisation des gains d'un contrôleur PID

avec deux systèmes non linéaires, le système masse-ressort-amortisseur et le pendule in-

versé.

Une comparaison de l'algorithme PMBBO a été réalisée avec l'algorithme BBO clas-

sique et les algorithmes génétiques.

Bien que les résultats de cette comparaison aient con�rmé l'amélioration des perfor-

mances d'optimisation de l'algorithme proposé, néanmoins, cette conclusion reste à valider

statistiquement à cause du petit nombre d'échantillons utilisés (moins de 30) (Garcia et al.,

2010).

Les résultats obtenus a�érant aux travaux réalisés ont été validés par des instances

scienti�ques internationales, en l'occurrence :

• ICCS12 pour l'application de l'algorithme de l'optimisation basée sur la biogéogra-

phie pour optimiser un contrôleur PID.

• IJOCTA14 pour la conception de l'algorithme hybride PMBBO.

• IJISA14b pour l'amélioration de l'algorithme hybride PMBBO.

64

Page 82: Approches de l'intelligence artificielle pour la commande

Chapitre 3

Optimisation par colonie d'abeilles

arti�cielles et prédateur et proies

amélioré

1 Introduction

L'étude des phénomènes réels est une nouvelle source d'inspiration en ingénierie d'in-

formatique, où l'étude et la modélisation des systèmes complexes sont très présentes.

Parmi les domaines fertiles de la biologie en inspiration, l'éthologie (étude du compor-

tement des animaux) a récemment donné lieu à plusieurs avancées signi�catives, dans

la conception des systèmes arti�ciels. Ces systèmes sont notamment étudiés en robo-

tique, en classi�cation ou encore en optimisation. Les méta-heuristiques constituent une

famille d'algorithmes inspirés de la nature. Ces algorithmes sont particulièrement utiles

pour résoudre des problèmes où les algorithmes d'optimisation classiques sont incapables

de produire des résultats satisfaisants. L'algorithme d'optimisation par colonie d'abeilles

arti�cielles (ABC) est une de ces méthodes.

L'algorithme ABC repose sur le principe de la division du travail chez les abeilles où

trois phases sont identi�ées, la phase des abeilles employés, la phase des abeilles onlookers

et la phase des scouts. Cette dernière est exécutée chaque i cycles pour sortir des minima

locaux et diversi�er les solutions.

Le fait que le processus de diversi�cation ne s'exécute que chaque i cycles conduit l'al-

gorithme a rester entre temps dans des minima locaux. Ce problème a motivé l'hybridation

de l'algorithme ABC avec le modèle prédateur et proies amélioré.

Dans ce chapitre nous présentons en détail l'algorithme colonie d'abeilles arti�cielles

ABC ainsi que le nouvel algorithme hybride ABC-PP qui est analysé et comparé avec un

ensemble d'algorithmes d'optimisation en appliquant des tests statistique non-paramétriques

pour déceler les di�érences entre ABC-PP et ces algorithmes. En�n, l'algorithme ABC-PP

65

Page 83: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

a été appliqué pour l'optimisation des paramètres d'un contrôleur PID pour la commande

du pendule inversé.

2 Optimisation par colonie d'abeilles arti�cielles

2.1 Intelligence bio-inspirée

À la �n des années 80, une nouvelle voie d'exploration est apparue en intelligence

computationnelle. Il s'agit de l'étude et de l'utilisation des phénomènes observés dans la

nature.

L'intelligence en essaims est une branche de recherche qui modélise la population

d'agents en interaction, où des essaims sont capables de s'auto-organiser et de diviser le

travail entre eux. Une colonie de fourmis, un troupeau d'oiseaux ou un système immuni-

taire est un exemple typique d'un système essaim (cf. Figure 3.1).

En e�et, ce sont des systèmes composés d'agents très simples, qui peuvent produire

des constructions complexes et des solutions à des problèmes non triviaux (tri, parcours

optimaux, répartition de tâches,...).

Les informaticiens ont repris les principes d'auto-organisation et d'émergence présents

dans ces sociétés, pour dé�nir l'intelligence collective. Nous pouvons la dé�nir comme

� Toute tentative de concevoir des algorithmes distribués ou de résolution de problèmes

par des dispositifs inspirés par le comportement collectif des colonies d'insectes sociaux et

des sociétés animales � (Eberhart et al., 2001). Elle caractérise un système où le travail col-

lectif des entités (non complexes) interagissant entre elles, fait émerger un comportement

complexe global.

Les avantages liés à l'utilisation d'une telle approche sont :

� La production d'une performance collective supérieure à celle des individus.

� Une plus grande adaptation et �exibilité aux environnements réels (en général dy-

namiques).

� La �abilité du système dans son ensemble (la perte d'un agent ne met pas en cause

le processus général).

L'essaim utilise deux concepts fondamentaux pour obtenir un comportement intelligent :

L'auto-organisation et la division de travail (Seeley, 1995).

66

Page 84: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

(a) Fourmis (b) Abeilles

(c) Oiseaux

Figure 3.1: Exemples d'essaim

2.1.1 Auto-organisation

Elle peut être dé�nie comme un ensemble de mécanismes dynamiques qui établissent

les règles de base concernant l'interaction entre les composants du système. Les règles

font en sorte que les interactions sont exécutées sur la base des informations purement

locales sans aucun rapport avec le schéma global. Les quatre propriétés fondamentales sur

lesquelles repose l'auto-organisation des abeilles dans la ruche sont (Seeley, 1995) :

Rétroaction positive

Comme la quantité de nectar des sources de nourriture augmente, le nombre de leurs

visites par les abeilles augmente aussi.

Rétroaction négative

Le processus d'exploitation des sources de nourriture pauvres est arrêté par les

abeilles.

Fluctuations

Les scouts mènent un processus de recherche aléatoire pour découvrir de nouvelles

sources de nourriture.

Interactions multiples

Les abeilles partagent leurs informations sur les sources de nourriture avec les on-

lookers sur la piste de danse.

67

Page 85: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Figure 3.2: Source de nourriture.

2.1.2 Division du travail

Dans le comportement des essaims, di�érentes tâches sont exécutées simultanément

par des agents spécialisées. Il permet de répondre aux conditions changeantes dans l'espace

de recherche (Eberhart et al., 2001).

2.2 Modèle de comportement d'abeilles

Tereshko (Tereshko, 2000) développait un modèle de comportement de butinage d'une

colonie d'abeilles sur la base des équations de réaction-di�usion. Ce modèle minimal de

la sélection du butinage a conduit à l'émergence de l'intelligence collective des essaims

d'abeilles.

Il se compose de trois éléments essentiels : les sources de nourriture, les abeilles em-

ployées et les abeilles non employées et il dé�nit deux modes principaux du comportement :

le recrutement d'une source de nectar et de l'abandon d'une source.

2.2.1 Sources de nourriture

La valeur d'une source de nourriture (cf. Figure 3.2) dépend de nombreux facteurs tels

que sa proximité de la ruche, sa richesse, le goût de son nectar ou de la concentration de

son énergie et la facilité d'extraction de cette énergie. Par souci de simplicité la rentabilité

d'une source de nourriture peut être représentée par une seule quantité (Seeley, 1995).

2.2.2 Abeilles employées

Elles sont associées à une source de nourriture particulière dont elles en sont actuel-

lement exploitantes (cf. Figure 3.3), elles transportent avec elles et partagent avec une

certaine probabilité des informations à propos de cette source, sa distance, sa direction

de la ruche et sa rentabilité (Seeley, 1995).

68

Page 86: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Figure 3.3: Abeille employée exploitant une source de nourriture.

2.2.3 Abeilles non employées

Elles cherchent sans cesse des sources de nourriture à exploiter. Il existe deux types

d'abeilles non employées : les scouts qui recherchent dans l'environnement entourant la

ruche pour de nouvelles sources de nourriture et les onlookers qui attendent dans la ruche

et choisissent une source de nourriture par le biais de l'information partagée par les abeilles

employées (cf. Figure 3.4).

L'échange d'informations entre les abeilles est l'événement le plus important dans la

formation de la connaissance collective. La partie la plus importante de la ruche à l'égard

de cet événement est la piste de danse. La communication entre les abeilles liées à la

qualité des sources de nourriture a lieu dans la région de la danse. Cette danse s'appelle

la danse frétillante (Seeley, 1995).

D'après les informations partagées par les employées sur toutes les sources de nour-

riture autour du ruche ; un onlooker sur la piste de danse peut, probablement assister

à de nombreuses danses et il y a une plus grande probabilité qu'il décide de recruter la

source la plus rentable. Les abeilles employées partagent leurs informations avec une pro-

babilité proportionnelle, à travers la danse frétillante (cf. Figure 3.5). Par conséquent, le

recrutement est proportionnel à la rentabilité de la source de nourriture.

Figure 3.4: Un onlooker tente d'améliorer une source de nourriture.

69

Page 87: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Figure 3.5: Danse frétillante des abeilles.

2.3 Algorithme colonie d'abeilles arti�cielles

L'algorithme colonie d'abeilles arti�cielles(ABC) a été introduit par (Karaboga, 2005)

pour l'optimisation des fonctions.

Chaque solution représente une source de nourriture potentielle dans l'espace de re-

cherche et la qualité de la solution correspond à la qualité de la position alimentaire.

Les abeilles arti�cielles cherchent à exploiter les sources de nourriture dans l'espace de

recherche.

2.4 Étapes de l'algorithme ABC

Pour trouver la solution optimale du problème d'optimisation de la forme (3.1) avec

l'algorithme ABC, les paramètres de contrôle résumés dans la Table 3.1 sont initiali-

sés (Karaboga et al., 2007).

MinXf(X), X = (x1 . . . xDim). (3.1)

Au départ de l'algorithme, un ensemble de Ne sources de nourriture est initialisé

aléatoirement dans l'espace de recherche. Chaque solution est évaluée par l'équation (3.2)

(Karaboga et al., 2007).

fiti =

{1

fi+1fi ≥ 0

1 + |fi| sinon(3.2)

Où fi est la fonction objectif évaluée pour la solution i, fiti est la fonction �tness.

L'algorithme ABC réitère trois phases jusqu'à atteindre une qualité de solution où un

nombre maximum de cycles cmax souhaités. Ces phases sont la phase d'abeilles employées,

onlookers, et les scouts (Karaboga et al., 2007).

70

Page 88: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table 3.1: Paramètres de l'algorithme ABC

Paramètre Désignation Nature

cmax Nombre maximal de cycles Ct

N Taille de la colonie Ct (N est pair)

Ne Nombre des abeilles employées Ne = N/2

No Nombre des onlookers No = N/2

Ns Nombre des scouts Ct , généralement égal à 1

Dim Nombre de variables de décision Ct

Limit Nombre de tentative d'amélioration d'une solution Ct

T Compteur de tentative d'amélioration d'une solution Ti = 0 / i = 0..Ne

2.4.1 Phase des employées

Chaque abeille employée i tente d'améliorer sa situation par une recherche locale, elle

réalise les opérations suivantes (Karaboga et al., 2007) :

1. Génération d'une nouvelle solution candidate par la formule (3.3).

vij = snij + φij(snij − snkj) (3.3)

où k ∈ (1, 2, ..., Ne) et j ∈ (1, 2, ..., Dim) sont des indices choisis aléatoirement et

k 6= i. φij est un nombre aléatoire entre −1 et 1.

2. Évaluation de la solution candidate vij, en calculant fi, et la �tness fiti par l'équa-

tion (3.2).

Si l'abeille employée i n'arrive pas à améliorer la solution courante alors le compteur

T est incrémenté sinon il est mis à 0 (Karaboga et al., 2007).

3. Calcul de la probabilité de la solution en utilisant l'expression suivante (Karaboga,

2005) :

pi =fiti

Ne∑g=1

fitg

(3.4)

2.4.2 Phase des onlookers

Après ; chaque onlooker j va réaliser les opérations suivantes (Karaboga et al., 2007) :

1. Choisir une solution i avec une probabilité pi reliée au �tness des sources de nour-

riture partagées par les employées (Karaboga et al., 2007).

2. Essayer d'améliorer la solution i en utilisant le même mécanisme décrit dans l'équa-

tion (3.3) (Karaboga et al., 2007).

3. Évaluer la solution i en utilisant l'équation (3.2).

71

Page 89: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Si une meilleure position est trouvée par l'onlooker, la position de l'abeille employée qui

correspond à cette solution est mise à jour et son compteur est mis à 0. Sinon, le compteur

correspondant est incrémenté (Karaboga, 2005).

2.4.3 Phase des scouts

Si la valeur du compteur T d'une employée ou d'une onlooker dépasse un certain seuil

limit, cette dernière abandonne sa position et devient un scout pour trouver une nouvelle

solution aléatoire dans l'espace de recherche (Karaboga, 2005).

2.5 Discussion sur l'algorithme ABC

L'algorithme ABC est un algorithme d'optimisation très intéressant par ses qualités

par rapport aux autres algorithmes. Il a les avantages et les limites suivantes :

2.5.1 Avantages de l'algorithme ABC

1. Possibilité de parallélisation :

L'algorithme ABC est constitué de trois phases, abeilles employés, abeilles onlokers

et scouts. Les deux premières phases peuvent très bien être implémentées en utili-

sant les techniques de parallélisation ce qui conduit à la réduction du temps global

de l'algorithme.

2. Nombre de paramètres de contrôle :

L'algorithme ABC utilise un nombre minimal de paramètres , le nombre d'abeilles

qui contrôle la taille de l'algorithme, le nombre maximum des cycles qui contrôle

l'arrêt du l'algorithme et en�n le paramètre limit qui décide quand changer une

source qui ne s'améliore pas par une autre aléatoirement crée.

2.5.2 Limites de l'algorithme ABC

L'algorithme ABC comme la plupart des algorithmes d'optimisation dispose d'un mé-

canisme d'évolution ( Employés et onlookers) et un mécanisme de diversi�cation (scout).

La phase des scouts ne se produit pas chaque cycles mais le principe est d'incrémenter

un compteur pour les solutions qui ne s'améliorent pas dans le cycle courant jusqu'à

atteindre un seuil Limit.

Fixer ce paramètre est un problème en lui même, des petites valeurs peuvent éliminer

une solution avant d'exploiter son voisinage en complet, tandis que des grandes valeurs

risquent de piéger l'algorithme dans des minima locaux pour plusieurs cycles.

Nous proposons dans la section suivante d'hybrider l'algorithme ABC avec le modèle

prédateur et proies amélioré du chapitre précédent pour accroitre la diversi�cation.

72

Page 90: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

3 Colonie d'abeilles arti�cielles et prédateur et proies

amélioré

Le modèle P&P amélioré est utilisé dans les algorithmes d'optimisation pour renforcer

la diversi�cation et lui permettre d'éviter les minima locaux.

Dans cette section, une nouvelle approche ABC-PP basée sur l'intégration du com-

portement P&P amélioré (décrit en Section 4.2 du Chapitre 2) dans l'algorithme ABC

pour l'accélérer et améliorer ses performances (Salem and Khel�, 2013).

Dans ce contexte, la phase des scouts de l'algorithme ABC est remplacée par le com-

portement Prédateur et proies amélioré.

Les npred meilleures sources de nourriture seront initialisées en prédateurs par l'équa-

tion (3.5) :

snpredi = snbi + ρ

(1− c

cmax

)i = 1..npred. (3.5)

Les sources de nourriture les plus proches des prédateurs sont remplacées par des sources

aléatoires par la formule (3.6) :

snic+1 = snic + µρe−|dm|(snimax − snimin) ic /∈ 1..npred. (3.6)

où dm est la distance entre la proie snic et le prédateur le plus proche donnée par l'équation

suivante :

dm =npred

minj=1

d(snic , snpredj) (3.7)

La nouvelle approche hybride ABC-PP est détaillée dans l'algorithme suivant :

73

Page 91: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

input : N , cmax, ρ

output : Optimal solution

1 Initialize N , cmax, ρ, npred;

2 Ne = No = N/2;

3 Initialize start food sources;

4 while c < cmax do

5 for Each employed bee i do

6 Calculate fi and fiti;

7 Create new source vi and apply greedy selection;

8 end

9 for Each onlooker i do

10 Compute probability pi;

11 Select source using pi;

12 Create new source vi and apply greedy selection;

13 end

14 Assign predators to best sources by Equation (3.5);

15 for Each employed bee i do

16 Compute distance to the closest predator with Equation (3.7);

17 Update the bee position with Equation (3.6);

18 end

19 end

Figure 3.6: AlgorithmeABC-PP

4 Analyse statistique des algorithmes PMBBO et ABC-

PP

A�n d'étudier les performances des deux algorithmes proposés (PMBBO et ABC-PP),

nous allons les comparer à un ensemble d'algorithmes d'optimisation présentés dans la

session spéciale de CEC2013(Special Session and Competition on Real Parameter Single

Objective Optimization) (Liang et al., 2013). Les algorithmes considérés sont : ICMAE-

LILS (Liao and Stutzle, 2013), SMADE (Cara�ni et al., 2013), TPC-GA (Elsayed et al.,

2013), fk-PSO (Nepomuceno and Engelbrecht, 2013). Le choix de ces algorithmes est

motivé par le fait qu'ils représentent chacun, une amélioration d'un algorithme connu :

Evolution strategy (ICMAELILS), Di�erential Evolution (SMADE), Genetic algorithms

(TPC-GA) et Particle swarm optimization (fk-PSO).

La comparaison est réalisée à travers une panoplie de tests statistique. Pour e�ectuer

ces tests, des conditions d'utilisation des tests paramétriques doivent être véri�és. Si ce

74

Page 92: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

n'est pas le cas, nous aurons recours aux tests non-paramétriques pour une comparaison

par paires et multiple (Les résultats des tests sont calculés par SPSS et MATLAB). La

procédure suivie est montrée dans la Figure 3.7 :

Résultats

Conditions Tests paramètriques

Tests nonparamétriques

Comparaison paires

Wilcoxon test

Comparaison multiple

pvalue < α Pas de di�érences

Post Hoc procedures

Estimation du contraste

OuiNon

Oui

Non

Figure 3.7: Procédure de l'analyse statistique .

4.1 Paramètres de l'expérimentation

L'objectif de la comparaison est de trouver le minimum de 28 problèmes dé�nis à la

CEC2013 et listés ci-dessous (Liang et al., 2013) :

• 5 Fonctions Uni-modales :

- f1 : Sphere Function.

- f2 : Rotated High Conditioned Elliptic Function.

- f3 : Rotated Bent Cigar Function.

75

Page 93: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

- f4 : Rotated Discus Function.

- f5 : Di�erent Powers Function.

• 15 fonctions basiques Multimodales :

- f6 : Rotated Rosenbrock's Function.

- f7 : Rotated Scha�ers F7 Function.

- f8 : Rotated Ackley's Function.

- f9 : Rotated Weierstrass Function.

- f10 : Rotated Griewnk's Function.

- f11 : Rastrigin's Function.

- f12 : Rotated Rastrigin's Function.

- f13 : Non-Continuous Rotated Rastrigin's Function.

- f14 : Schwefel's Function.

- f15 : Rotated Schwefel's Function.

- f16 : Rotated Katsuura Function.

- f17 : Lunacek Bi_Rastrigin Function.

- f18 : Rotated Lunacek Bi_Rastrigin Function.

- f19 : Expanded Griewank's plus Rosenbrock's Function.

- f20 : Expanded Sca�er's F6 Function.

• 8 fonctions composées :

- f21 : Composition Function 1 (n=5, Rotated).

- f22 : Composition Function 2 (n=3, Unrotated).

- f23 : Composition Function 3 (n=3, Rotated).

- f24 : Composition Function 4 (n=3, Rotated).

- f25 : Composition Function 5 (n=3, Rotated).

- f26 : Composition Function 6 (n=5, Rotated).

- f27 : Composition Function 7 (n=5, Rotated).

- f28 : Composition Function 8 (n=5, Rotated).

La description des 28 fonctions utilisées, leurs minima analytiques, et leurs caractéris-

tiques peuvent être trouvées dans (Liang et al., 2013)).

Pour e�ectuer la comparaison, nous avons suivi les paramètres de l'expérimentation

dé�nis dans la CEC2013 pour pouvoir comparer nos deux algorithmes avec ceux de la

compétition (Liang et al., 2013)). Ainsi, chaque algorithme est exécuté 51 exécutions

76

Page 94: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

indépendantes pour chaque fonction avec une dimension D = 50 pour trouver le minimum

dans l'espace de recherche [−100, 100]D. Le critère d'arrêt est soit quand l'algorithme

atteint un nombre maximum d'évaluations 100 ∗D où la valeur de l'erreur soit inférieur

à 10−8 (Liang et al., 2013).

Les paramètres des algorithmes utilisés sont les mêmes que dans leurs références res-

pectives tandis que les paramètres de nos deux algorithmes proposés sont dans la Table 3.2.

Les moyennes de l'erreur Moyer pour les valeurs minimales obtenues à partir des 51

exécutions sont représentées dans la Table 3.3.

Table 3.2: Paramètres des algorithmes PMBBO et ABC-PP

PMBBO ABC-PP

Paramètre Valeur Paramètre Valeur

Nombre d'habitats N 50 Nombre d'abeilles N 50

E,I 1 /

Nombre de prédateurs npred 50 Nombre de prédateurs npred 50

4.2 Conditions d'utilisation des tests paramétriques

Les tests statistiques sont généralement utilisés pour tirer des déductions sur une où

plusieurs populations d'échantillons. Avant de commencer un test, deux hypothèses sont

dé�nies, l'hypothèse nulle qui stipule la non di�érence entre les populations comparées et

l'hypothèse alternative qui suppose la présence de di�érence (Garcia et al., 2009).

Un test requière la dé�nition d'un niveau de signi�cation α pour déterminer à quel

niveau, l'hypothèse peut être rejetée (Résultat du test inférieur à α signi�e que l'hypothèse

nulle est rejetée). Quand les données à analyser sont des réelles, les tests paramétriques

sont souvent utilisés pour comparer les résultats des algorithmes.

Pour utiliser des tests paramétriques, des conditions doivent être véri�ées (Sheskin,

2006), (Garcia et al., 2009). Ces conditions sont l'indépendance des échantillons comparés,

leurs normalité et égalité des variances (hétéroscédasticité).

Dans notre cas, les résultats sont obtenus à partir des exécutions indépendantes avec

des individus initiaux générés aléatoirement. L'analyse de la Normalité va être achevée

par les tests de Kolmogorov-Smirnov et Shapiro-Wilk tandis que le test de Levene va être

utilisé pour véri�er la hétéroscédasticité (Sheskin, 2006).

• Test de Kolmogorov-Smirnov (Sheskin, 2006) :

Il fournit une p-value en se basant sur la comparaison des distributions accumulées

des données observées avec celles d'une distribution gaussienne.

• Test de Shapiro-Wilk (Shapiro and Wilk, 1965) :

77

Page 95: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table3.3:

Moyennesde

l'erreurpourles28

fonctionsbenchmark.

Func

ICMAELILS

TPC-G

ASMADE

fk-PSO

PMBBO

ABC-PP

f 11.0000E-08

0.0000E+00

2.2700E-13

0.0000E+00

0.00E+00

0.0000E+00

f 21.0000E-08

4.7601E+05

2.2700E-13

2.7600E+06

2.11E+02

0.0000E+00

f 32.0100E-02

1.0571E+08

3.8100E+05

9.6800E+08

3.65E+03

0.0000E+00

f 41.0000E-08

3.3297E+00

2.2700E-13

5.2500E+02

1.69E+00

0.0000E+00

f 51.5200E-08

4.7716E+04

6.8200E-13

0.0000E+00

2.00E-03

0.0000E+00

f 64.1900E+01

4.7228E+01

4.3000E+01

5.5100E+01

3.70E+01

0.0000E+00

f 75.4400E-01

4.1650E+01

4.3200E+01

7.8100E+01

2.30E+01

1.0E

-01

f 82.1100E+01

2.1190E+01

2.1100E+01

2.1100E+01

2.11E+01

1.18E+01

f 98.1800E+00

7.4306E+01

4.3600E+01

3.8500E+01

4.52E+01

1.95E+00

f 10

1.0000E-08

1.0474E-01

2.4700E-02

2.1300E+01

8.50E-01

0.0000E+00

f 11

5.9400E+00

5.5675E+01

4.8100E+01

8.6100E+01

3.28E+01

1.256E

+00

f 12

5.7700E+00

9.8267E+01

1.5700E+02

1.4500E+02

1.05E+02

2.895E

+00

f 13

5.7300E+00

1.9277E+02

3.3500E+02

2.7400E+02

1.55E+02

8.897E

+00

f 14

8.5900E+02

2.5498E+03

3.4100E+02

1.9600E+03

9.56E+03

1.11458E

+02

f 15

6.4200E+02

9.8398E+03

8.5400E+03

6.6300E+03

7.11E+03

1.00621E

+03

f 16

6.2800E-01

3.6752E+00

8.9600E-02

1.3000E+00

2.20E+00

2.548E

-02

f 17

5.7500E+01

1.1468E+02

6.5700E+01

1.1600E+02

8.72E+01

2.42514E

+01

f 18

6.4300E+01

1.6788E+02

1.9300E+02

1.3200E+02

1.46E+02

2.94587E

+01

f 19

3.6200E+00

8.9243E+00

5.4300E+00

7.8200E+00

5.10E+00

0.95689E

+00

f 20

2.4400E+01

2.3492E+01

1.9200E+01

2.0600E+01

2.20E+01

1.0584E+01

f 21

2.0000E+02

7.9256E+02

8.4600E+02

8.3400E+02

6.60E+02

9.22003E

+01

f 22

5.8700E+02

3.5099E+03

3.3900E+02

2.2200E+03

7.75E+02

1.15487E

+02

f 23

5.5700E+02

1.0798E+04

9.8900E+03

7.4000E+03

6.84E+03

1.69237E

+02

f 24

2.0000E+02

3.7872E+02

3.0000E+02

3.0000E+02

3.44E+02

9.2514E+00

f 25

2.7400E+02

3.8938E+02

.6800E

+02

3.0000E+02

3.41E+02

1.21022E

+02

f 26

2.4100E+02

4.2752E+02

2.9100E+02

3.9000E+02

2.11E+02

8.9154E+01

f 27

3.0200E+02

2.0812E+03

1.1800E+03

1.3200E+03

1.56E+03

7.90252E

+02

f 28

4.0000E+02

4.5930E+02

1.0700E+03

1.6300E+03

8.52E+02

1.55251E

+02

78

Page 96: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Il calcule le niveau de symétrie et l'aplatissement (kurtosis) des populations obser-

vées et obtient les di�érences par rapport à une distribution gaussienne en calculant

une p-value à partir de la somme de leurs carrées.

Le résultat des tests de normalité est une p-value qui représente la dissemblance des

résultats des échantillons avec une loi normale. Un niveau de signi�cation α = 0.05 est

choisi. Si la p-value obtenue est plus élevée que α, elle indique que l'hypothèse nulle est

acceptée ce qui signi�e que la condition de la normalité est véri�ée.

La Table 3.4 montre les résultats des tests de la normalité (Kolmogorov-Smirnov et

Shapiro-Wilk) appliqués sur nos expérimentations.

Toutes les p-values obtenues à partir des tests de normalité sont inférieures au niveau

de signi�cation α conduisant au rejet de l'hypothèse nulle et donc les résultats de la

Table 3.3 ne sont pas normalement distribués.

Table 3.4: Tests de normalité.

Algorithme Kolmogorov-Smirnov Shapiro-Wilk

Statistique p− value Statistique p− valueICMAELILS .299 .000 .722 .000

TPC-GA .530 .000 .190 .000

SMADE .490 .000 .203 .000

fk-PSO .534 .000 .189 .000

PMBBO .372 .000 .529 .000

ABC-PP .337 .000 .461 .000

• Test de Levene (Levene, 1960)Il est utilisé pour véri�er s'il existe ou non une homogénéité de variance (homosce-

dasticity) entre k échantillons.

les résultats du test de Levene sont dans la Table 3.5. Ils montrent que les variances des

distributions des di�érents algorithmes ne sont pas homogènes pour certains problèmes.

Puisque les deux conditions de normalité et homogénéité des variances ne sont pas vé-

ri�ées, l'application des tests paramétriques est impossible ce qui nous conduit à appliquer

les tests non-paramétriques dans la prochaine section.

4.3 Tests non-paramétriques

Les tests non-paramétriques sont des tests basés sur le classement (ranking based tests)

utilisés lorsque les hypothèses imposées par les tests paramétriques ne sont pas remplies.

Ils sont connus pour être moins restrictifs et moins robustes que les tests paramétriques.

Cette section commence par étudier le comportement de l'algorithme ABC-PP dans une

comparaison par paires avec le reste des algorithmes considérés en utilisant le test de

79

Page 97: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table3.5:

Testde

hétéroscedasticité

deLevene.

Algorithm

ef 1

f 2f 3

f 4f 5

f 6f 7

f 8f 9

f 10

f 11

f 12

f 13

f 14

ICMAELILS

.01

.02

.02

.06

.01

.00

.01

.00

.01

.00

.01

.01

.01

.00

SMADE

.00

.00

.00

.03

.00

.01

.00

.05

.00

.00

.01

.02

.01

.01

TPC-G

A.00

.00

.04

.05

.01

.00

.00

.06

.01

.00

.01

.00

.00

.00

fk-PSO

.00

.05

.06

.06

.00

.00

.00

.00

.01

.00

.05

.01

.01

.01

PMBBO

.00

.00

.02

.07

.00

.00

.00

.00

.00

.00

.01

.00

.01

.00

ABC-PP

.00

.00

.02

.07

.00

.00

.00

.00

.00

.00

.01

.00

.01

.00

Algorithm

ef 1

5f 1

6f 1

7f 1

8f 1

9f 2

0f 2

1f 2

2f 2

3f 2

4f 2

5f 2

6f 2

7f 2

8

ICMAELILS

.0.00

.00

.06

.01

.00

.00

.01

.00

.00

.01

.01

.00

.01

SMADE

.00

.00

.00

.00

.01

.01

.00

.00

.00

.00

.01

.00

.00

.00

TPC-G

A.0

.01

.02

.06

.00

.00

.00

.00

.00

.01

.01

.01

.00

.00

fk-PSO

.01

.00

.00

.00

.01

.00

.02

.06

.01

.08

.01

.01

.01

.01

PMBBO

.00

.01

.01

.00

.01

.00

.00

.00

.00

.00

.00

.01

.01

.00

ABC-PP

.00

.00

.02

.07

.00

.00

.00

.00

.00

.00

.01

.00

.01

.00

80

Page 98: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Wilcoxon. Nous nous concentrerons après sur une comparaison de 1xn avec ABC-PP

comme une méthode de contrôle. Le test de Friedman et ses dérivées sont alors appliqués.

En�n, les procédures post-hoc sont utilisées pour déceler les di�érences détectées par le

test de Friedman et ses alternatives (Derrac et al., 2011).

4.3.1 Comparaisons par paires : Test de Wilcoxon signed ranks

Le test de Wilcoxon est un test non paramétrique qui compare deux groupes appariés

(algorithmes) dans le but de détecter des di�érences signi�catives entre leurs comporte-

ments. Il est considéré comme l'équivalent non paramétrique du t-test. Le test calcule

essentiellement la di�érence entre chaque ensemble de paires et analyse ces di�érences. Le

test de Wilcoxon peut être utilisé pour accepter (ou rejeter) l'hypothèse nulle que deux

échantillons représentent deux populations di�érentes. Le test est e�ectué comme suit

(Garcia et al., 2009) :

• Calculer la di�érence signée pour chaque paire de données.

• Classer les valeurs absolues des di�érences (rangs moyens sont a�ectés en cas d'éga-

lité).

• Calculer R+, R− la somme des rangs des di�érences positives et les rangs des dif-

férences négatives respectivement. Les rangs des di�érences nulles sont répartis de

manière équitable entre les deux sommes. Un rang est ignoré en cas de nombre

impair de di�érences égales.

• Utiliser la valeur de T = min(R+, R−) pour déterminer la p-value p du test à l'aide

d'un tableau statistique appropriée (Zar, 2009).

L'hypothèse nulle est rejetée lorsque p < α.

Le test de Wilcoxon est e�ectué pour comparer l'algorithme ABC-PP avec chacun des

cinq autres algorithmes pris en compte dans l'expérimentation.

La Table 3.6 montre les valeurs de R+, R− et les p-values calculées pour toutes les

paires d'algorithmes impliquant ABC-PP.

Comme l'indique la Table, les p-values obtenues sont supérieures à α ce qui implique

l'acceptation de l'hypothèse nulle pour tous les pairs des algorithmes comparés. Ceci

signi�e que l'algorithme ABC-PP est meilleur que les algorithmes PMBBO, fk-PSO ,

TPC-GA , ICMAELILS et SMADE avec α = 0, 05.

81

Page 99: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table 3.6: Résultats du test de Wilcoxon.

Pair R− R+ p-value

ABC-PP vs ICMAELILS 228.0 48.0 .21

ABC-PP vs SMADE 299.0 1.0 .313

ABC-PP vs TPC-GA 405.0 1.0 .051

ABC-PP vs fk-PSO 377.0 1.0 .54

ABC-PP vs PMBBO 377.0 1.0 .54

4.3.2 Comparaison multiple avec une méthode de contrôle

L'inconvénient majeur de la comparaison par paires est qu'il n'est pas possible d'ex-

traire une conclusion à partir de plus d'une comparaison par paires. Cela est dû au fait

que les p-values des comparaisons sont indépendantes et en essayant de tirer une signi-

�cation statistique à partir d'elles, conduira à une perte de contrôle sur le taux d'erreur

coté famille (Family-Wise Error Rate FWER) (Derrac et al., 2011).

Un test de comparaison multiple avec une méthode de contrôle doit être utilisé pour com-

parer plus de deux algorithmes. Dans ce cas, le test de Friedman et ses extensions sont

les plus appropriés pour e�ectuer cette comparaison.

• Test de Friedman

Le test de Friedman (Friedman, 1937), est l'alternative non-paramétrique du test

d'ANOVA avec des mesures répétées. Il est utilisé pour tester les di�érences entre les

groupes lorsque la variable dépendante mesurée est ordinale. Il peut également être utilisé

pour les données continues qui enfreindraient les hypothèses nécessaires pour exécuter le

test ANOVA.

L'hypothèse nulle pour le test de Friedman statue sur l'égalité des médianes entre

les populations. La procédure du test de Friedman, comparant k algorithmes pour n

problèmes, est résumée comme suit :

1. Attribuer des rangs dans l'ordre croissant des algorithmes considérés pour chaque

problème i, du meilleur au pire (de 1 à k). En cas d'égalité, des rangs moyens sont

calculés.

2. Calculer Rj la moyenne des rangs de chaque algorithme :

Rj =1

n

n∑i=1

rji j = 1..k (3.8)

où rji est le rang de l'algorithme j pour le problème i.

3. Calculer la mesure de Friedman par l'équation (3.9) (Friedman, 1937).

82

Page 100: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

M =12n

k(k + 1)

(∑j

R2j −

k(k + 1)2

4

)(3.9)

La signi�cation de M peut être calculée quand n > 10 et k > 5 mais lorsque la valeur de

k et/ou n dépasse ces seuils, la signi�cation de M peut être recherchée dans la table de

distribution χ2 avec k − 1 degrés de liberté (Sheskin, 2006).

• Test de Iman et Davenport

Le test de Iman and Davenport est un test non-paramètrique moins conservateur (Iman

and Davenport, 1980), dérivé du test de Friedman, son statistique est donnée par :

MID =(n− 1)M

n(k − 1)−M(3.10)

qui suit une distribution F avec k − 1 et (k − 1)(n − 1) degrés de liberté. Les tableaux

statistiques pour les valeurs critiques peuvent être trouvés dans (Sheskin, 2006).

Lorsque le nombre des algorithmes considérés est faible, le test de Friedman est moins

sensible aux di�érences entre les traitements. Cela est dû au fait que dans le test de Fried-

man, les observations sont classés au sein d'un problème (Derrac et al., 2011).

• Test des rangs alignés de Friedman

Dans le test des rangs alignés (Aligned ranks) de Friedman, la mesure de chaque

problème est la performance moyenne réalisée par tous les algorithmes pour ce problème.

Les observations alignés sont la di�érence entre la performance d'un algorithme pour un

problème donné et la valeur de sa mesure (Hodges and Lehmann, 1962).

Les observations alignées pour tous les algorithmes et tous les problèmes sont ensuite

classées à partir de 1 à nk. Ces rangs sont appelés les rangs alignés (Hodges and Lehmann,

1962).

La statistique du test est décrite dans l'équation (3.11) :

MAR =

(k − 1)

(∑kj=1 R

2j − (kn2)/4(kn+ 1)2

)kn(kn+ 1)(2kn+ 1)/6− (1/k)

∑ni=1 R

2i

(3.11)

où Ri est la somme des rangs du iime problème et Rj est la somme des rangs du jime

algorithme. La statistique du test est comparée avec une distribution χ2 avec k−1 degrés

de liberté.

• Test de Quade

Le test de Quade est souvent plus puissant que le test de Friedman (Quade, 1979). Il

élimine également les di�érences de blocs.

83

Page 101: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

A la di�érence du test de Friedman, le test de Quade considère que les problèmes

n'ont pas la même importance en introduisant les gammes des problèmes dans le calcul

statistique du test. La gamme d'un problème est la di�érence entre le maximum et le

minimum pour tous les algorithmes (il y a n gammes : q1..qn).

La procédure du test de Quade est la suivante :

1. Le test commence par le calcul de rji comme le test de Friedman.

2. La gamme du problème qi est multiplié par la di�érence entre le rang au sein du

problème i, rji et le rang moyen k+12, pour obtenir l'équation (3.12)

Sji = qi

(rji − (k + 1)/2

)(3.12)

où Sji est la taille relative de chaque observation dans le problème, ajustée pour tenir

compte de l'importance relative du problème dans lequel elle apparaît (Conover, 1999).

Sj est la somme pour l'algorithme j :

Sj =n∑i=1

Sji (3.13)

Soit Wj =∑n

i=1 qirji j = 1..k.

La statistique du test de Quade est donnée par :

MQ = |(n− 1)B

A−B| (3.14)

où A et B sont donnés par :

A =n∑i=1

k∑j=1

Sj2i B =k∑j=1

S2j (3.15)

MQ suit une F-distribution avec k − 1 et (k − 1)(n − 1) degrés de liberté (Les valeurs

critiques peuvent être trouvées dans la Table A10 dans (Sheskin, 2006). Si A = B, le

point se trouve alors dans la région critique de la distribution statistique et la p-value est

égale à (1/k!)b−1 (Conover, 1999), (Derrac et al., 2011).

Si la p-value des tests de Friedman, Iman-Davenport, Friedman Aligned Ranks, et

Quade est inférieure au niveau de signi�cation choisi α alors l'hypothèse nulle est rejetée

ce qui signi�e qu'il y a des di�érences entre les algorithmes comparés (Derrac et al., 2011).

D'après la Table 3.7 qui représente les rangs moyens, les statistiques et p-values obtenus

des trois tests, les tests de Friedman, Friedman Aligned Ranks, et Quade illustrent ABC-

PP comme le meilleur algorithme de la comparaison avec un rang de 5.82142, 127.48214 et

5.81896 respectivement dans le même temps notre deuxième algorithme PMBBO est classé

en 3ime position par le test de Friedman avec un rang de 3.17857 tandis que Friedman

84

Page 102: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

aligned et Quade le classent à la 4ime position avec un rang moyen de 76.21428 et 3.07512

respectivement.

Les p-values calculées par chaque test sont inférieures à α ce qui suggère l'existence

des di�érences signi�catives entre les algorithmes comparés. Dans la sous section suivante,

des procédures Post-hoc vont être utilisées pour déterminer la nature des di�érences entre

la méthode de contrôle ABC-PP avec les autres algorithmes.

Table 3.7: Rangs moyens des tests Friedman, Aligned Friedman et Quade

Algorithme Friedman Aligned Friedman Quade

ICMAELILS 4.44642 119.08928 4.65763

TPC-GA 1.94642 59.51785 1.83866

SMADE 3.107142 76.26785 3.14901

fk-PSO 2.5 48.42857 2.46059

PMBBO 3.17857 76.21428 3.07512

ABC-PP 5.82142 127.48214 5.81896

Statistic 79.64795 22.508262 31.57937

p-value 4.76899E-11 4.19022E-4 -2.22041E-16

4.3.3 Procédures Post-hoc

Le rejet de l'hypothèse nulle (équivalence des rangs) par les tests de Friedman, Fried-

man aligné, et de Quade peut seulement détecter des di�érences signi�catives sur l'en-

semble de la comparaison multiple. A�n d'e�ectuer des comparaisons valables entre l'algo-

rithme ABC-PP (la méthode de contrôle) et chacun des autres algorithmes, les procédures

post-hoc sont utilisés pour déterminer où se situent les di�érences spéci�ques. Dans ce

contexte, une famille de k − 1 hypothèses interdépendantes peut être dé�nie par rapport

à la méthode de contrôle et un test post-hoc peut obtenir une p-value qui détermine le

degré de rejet de chaque hypothèse.

La p-value de chacune des hypothèses dans la famille peut être obtenue par la conversion

des rangs calculés par chaque test à l'aide d'une approximation normale. La statistique

z pour comparer le iime et le jime algorithme pour chaque test de classement (Friedman,

alignés Friedman et Quade) est calculée comme suit (Derrac et al., 2011) :

• Friedman :

z =(Ri −Rj)√

k(k+1)6n

(3.16)

où Ri et Rj sont les rangs moyens des algorithmes comparés obtenus par le test de

Friedman.

85

Page 103: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

• Aligned Friedman :

z =(Ri −Rj)√

k(k+1)6n

(3.17)

où Ri et Rj sont les rangs moyens des algorithmes comparés obtenus par le test de

Friedman (Derrac et al., 2011).

• Quade :

z =(Ti − Tj)√

k(k+1)(2n+1)(k−1)18n(n+1)

(3.18)

où Ti = Wi

n(n+1)/2, Tj =

Wj

n(n+1)/2, Wi et Wj sont les rangs sans ajustement moyen de

l'algorithme comparé obtenus par le test de Quade.

La valeur de z est utilisée dans toutes les procédures post hoc pour trouver la p-value

correspondante à partir d'une distribution normale. Cette valeur est comparée avec le

niveau de signi�cation α. La di�érence entre ces procédures est dans la manière avec

laquelle la valeur de α est ajustée pour compenser l'e�et de la comparaison multiple.

Les p-values pour chaque comparaison obtenues par le test de Friedman et ses alterna-

tives ne prennent pas en compte les comparaisons restantes. Pour traiter ce problème, il

est recommandé d'utiliser les p-values ajustées (APV) parce que les procédures post-hoc

changent le niveau de signi�cation α pour chaque paire de comparaison (Derrac et al.,

2011).

Les procédures post-hoc implémentées et leur p-values ajustées sont décrites ci-dessous

où pi est la p-value calculée pour la iime hypothèse et APVi est sa valeur ajustée (Derrac

et al., 2011).

1. Procédure de Bonferroni-Dunn

La procédure de Bonferroni-Dunn ajuste la p-value en divisant la valeur de α par

le nombre de comparaisons e�ectuées k − 1 (Dunn, 1961).

APVi = min((k − 1)pi, 1).

2. Procédure de Holm

C'est une procédure step down où les p-values pi obtenues à partir des k − 1 com-

paraisons sont classées dans un ordre croissant(1 à k − 1).

L'hypothèse H1 est rejetée par rapport à l'hypothèse Hi−1 si i est le plus petit en-

86

Page 104: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

tier tel que pi > α/(k − 1). Si l'hypothèse nulle ne peut pas être rejetée, toutes les

hypothèses restantes sont retenues (Holm, 1979).

La p-value ajustée est :

APVi = min(max((k − j)pj), 1), 1 ≤ j ≤ i.

3. Procédure de Holland

Dans cette procédure, la valeur de α est ajustée de façon similaire à la méthode

de Holm. H1 est rejetée par rapport à Hi−1 si i est le plus petit entier tel que

pi > 1− (1− α)k−i (Holland, 1987).

APVi = min(max(1− (1− pj)k−j), 1), 1 ≤ j ≤ i.

4. Procédure de Finner

Dans cette procédure, H1 est rejetée par rapport à Hi−1 si i est le plus petit entier

tel que pi > 1− (1− α)(k−i)/i (Finner, 1993).

APVi = min(max(1− (1− pj)(k−1)/j, 1), 1 ≤ j ≤ i).

5. Procédure de Hochberg

Cette procédure rejette Hi−1 par rapport à H1 si i est le plus grand entier tel que

pi > α/(k − i) (Hochberg, 1988).

APVi = max((k − j)pj), k − 1 ≥ j ≥ i.

6. Procédure de Hommel

Cette procédure essaye de trouver le plus grand j pour lequel pn−j+k > kα/j où

1 ≤ k ≤ j. Si j existe, la procédure rejette toutes les hypothèses véri�ant pi ≤ α/j

sinon, toutes les hypothèses sont rejetées.

La APVi pour cette procédure est calculée par un algorithme qui peut être trouvé

dans (Hommel, 1988).

7. Procédure de Rom

Cette procédure opère de la même façon que la procédure de Hochberg, mais la

valeur de α est calculée par l'équation suivante (Rom, 1990) :

αk−i =[∑i−1

j=1 αj −

∑i−2j=1

(ik

)αi−jk−1−j]

i(3.19)

87

Page 105: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

où αk−1 = α et αk−2 = α/2.

APVi : max((rk−j)pj), (k − 1) ≥ j ≥ i, où rk−j est obtenu de l'équation précédente

(rj = 1, 2, 3, 3.814, 4.755, ...).

8. Procédure de Li

L'approche de Li est basée sur deux étapes pour rejeter des hypothèses (Li, 2008) :

- Si pk−1 ≤ α alors rejeter toutes les hypothèses sinon accepter l'hypothèse associée

à pk−1.

- Rejeter toutes autres hypothèse Hi avec pi ≤ α(1− pk−1)/(1− α).

APVi : pi/(pi + 1− pk−1).

Résultats des procédures post-hoc

La Table 3.8 montre les p-values ajustées obtenues pour les procédures post-hoc en

utilisant les rangs des tests de Friedman, Friedman Aligned, et Quade. Les seuils de rejet

pour les procédures pour chaque test sont dans la Table 3.9.

D'après la Table 3.8 et la Table 3.9, nous pouvons remarquer que :

• L'algorithme ABC-PP est donné gagnant par toutes les procédures appliquées sur les

tests de Friedman et Quade. Les résultats obtenus dans la Figure 3.8 et Figure 3.10

montrent que les p-values obtenues par ces procédures sont très inférieures au seuil

de rejet (en noir dans les �gures). Ceci indique que ABC-PP est donné meilleur que

les autres avec une grande marge de rejet.

• Pour le cas du test de Friedman-Aligned, l'algorithme ABC-PP est meilleur que

fk-PSO, TPC-GA, PMBBO et SMADE par toutes les procédures.

• Les procédures de Hochberg, Hommel, Rom et Finner appliquées sur le test de

Friedman-Aligned ont montré que ICMAELILS est meilleurs que notre algorithme

ABC-PP. Cette di�érence entre les deux algorithmes(ABC-PP et ICMAELILS) est

minime (cf. Figure 3.9) et l'hypothèse nulle est rejetée avec une p-value très proche

du seuil du rejet.

• La procédure de Hochberg nécessite le plus petit niveau de con�ance α = 0.0125

(Bonferonni-Dunn n'utilise pas les valeurs ajustées).

En ce qui concerne les procédures post-hoc utilisées, les di�érences de puissance entre

les méthodes sont plutôt petites, avec certaines exceptions. Le test de Bonferroni-Dunn

ne doit pas être utilisé malgré sa simplicité, car il s'agit d'un test très conservateur et il

ne peux pas détecter de nombreuses di�érences.

Cinq procédures (Holm, Hochberg, Hommel, Holland, et Rom) ont un e�et semblable.

Bien que les procédures Hommel et Rom sont les plus puissants, ils sont aussi plus di�-

88

Page 106: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table3.8:

p-values

Ajustéespourlesprocédures

post-hoc

Test

iABC-PPvs

p-value

Procedures

Bonf

Holm

Hoch

Hom

mHoll

Rom

Finn

Li

Friedman

5TPC-G

A9.18E-15

4.59E-14

4.59E-14

4.59E-14

4.59E-14

4.60E-14

4.36E-14

4.60E-14

1.25E-14

4fk-PSO

5.73E-7

2.86E-6

2.29E-6

2.29E-6

2.29E-6

2.29E-6

2.18E-6

1.43E-6

7.83E-7

3SMADE

0.001372

0.006864

0.004118

0.004052

0.003039

0.004062

0.004052

0.002277

0.001841

2PMBBO

0.002026

0.0010131

0.004118

0.004052

0.004052

0.004062

0.004052

0.002526

0.002694

1ICMAELILS

0.0026823

0.0034116

0.0026823

0.0026823

0.0026823

0.0026823

0.0026823

0.0026823

0.0026823

FriedAligned

5fk-PSO

1.19E-9

5.97E-9

5.97E-9

5.97E-9

5.97E-9

5.97E-9

5.67E-9

5.97E-9

1.96E-9

4TPC-G

A5.46E-8

2.73E-7

2.18E-7

2.18E-7

2.18E-7

2.18E-7

2.08E-7

1.36E-7

9.01E-8

3PMBBO

0.016115

0.0080585

0.004835

0.0032565

0.0032235

0.004681

0032565

0.002657

0.0025235

2SMADE

0.016284

0.008142

0.004835

0.0032565

0.0032565

0.004681

0.0032565

0.002657

0.0025485

1ICMAELILS

0.019682

0.009841

0.019682

0.019682

0.019682

0.019682

0.019682

0.019682

0.019682

Quade

5TPC-G

A1.09E-5

5.45E-5

5.45E-5

5.45E-5

5.45E-5

5.45E-5

5.18E-5

5.45E-5

2.14E-5

4fk-PSO

0.00183

0.00919

0.00735

0.00735

0.00735

0.00733

0.00701

0.00459

0.00360

3PMBBO

0.0029526

0.0014763

0.0088578

0.0068738

0.0059052

0.0076144

0.0068738

0.0046746

0.004503

2SMADE

0.0034368

0.00171844

0.0088578

0.0068738

0.0068738

0.0076144

0.0068738

0.0046746

0.0050548

1ICMAELILS

0.0098386

0.0098386

0.0098386

0.0098386

0.0098386

0.0098386

0.0098386

0.0098386

0.0098386

89

Page 107: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table3.9:

Seuilsde

rejetdesprocédures

Test

Bonf-Dun

nHolm

Hochb

erg

Hom

mel

Holland

Rom

Finner

Li

Friedm

an0.

010.

050.

025

0.05

0.05

000.

025

0.05

000.

0385

Friedm

analigned

0.01

0.01

666

0.01

250.

025

0.01

6952

0.01

3109

0.03

0307

0.03

191

Quade

0.01

0.01

6666

60.

0125

0.01

6666

60.

0169

520.

0131

093

0.03

030

0.02

674

90

Page 108: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

ciles à être appliquée. Une bonne alternative est d'utiliser le test Finner, qui est facile à

comprendre et o�re de meilleurs résultats que les autres, à l'exception de la procédure de

Li dans certains cas (Derrac et al., 2011).

Bonf−Dunn Holm Hochberg Hommel Holland Rom Finner Li

0

0.01

0.02

0.03

0.04

0.05

fk−PSOTPC−GAPMBBOSMADEICMAELILSSeuil de rejet

Figure 3.8: Résultats des procédures post-hoc, Test de Friedman

Bonf−Dunn Holm Hochberg Hommel Holland Rom Finner Li0

0,005

0,01

0,015

0,02

fk−PSOTPC−GAPMBBOSMADEICMAELILSSeuil de rejet

Figure 3.9: Résultats des procédures post-hoc, Test de Friedman Aligned

Bonf−Dunn Holm Hochberg Hommel Holland Rom Finner Li

0

0.005

0.01

0.015

0.02

0.025

0.03

0.035

TPC−GAfk−PSOPMBBOSMADEICMAELILSSeuil de rejet

Figure 3.10: Résultats des procédures post-hoc, Test de Quade

91

Page 109: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

4.4 Estimation du contraste

Le test d'estimation du Contraste basée sur les médianes (Doksum, 1967) peut être

utilisé pour estimer la di�érence entre les performances de deux algorithmes. Il suppose

que les di�érences attendues entre les performances des algorithmes sont les mêmes pour

tous les problèmes. Par conséquent, ces performances sont ré�échies par l'amplitude des

di�érences entre elles dans chaque problème.

L'intérêt de ce test réside dans l'estimation du contraste entre les médianes des échan-

tillons du résultats compte tenu de toutes les comparaisons par paires. Le test obtient

une di�érence quantitative calculée par médianes entre deux algorithmes sur plusieurs

problèmes, il procède comme suit.

• Pour chaque paire des k (k = 6) algorithmes, calculer la di�érence entre les perfor-

mances des deux algorithmes pour chacun des n problèmes.

Di(u,v) = Moyerui −Moyervi . (3.20)

où i = 1..n ; u = 1..k ; v = 1..k et u ≤ v

• Trouver la valeur médiane de chaque groupe de di�érences (Zuv, qui peut être consi-

déré comme l'estimateur non ajusté des médianes des algorithmes u et v,Mu−Mv).

Puisque Zuv = Zvu, il n'est nécessaire de calculer Zuv que dans les cas où u < v.

Notez également que Zuu = 0.

• Calculer la moyenne de chaque ensemble de médianes avec le même indice, mu :

mu =

∑kj=1 Zuj

k, u = 1..k. (3.21)

L'estimateur de Mu −Mv est mu − mv, où u et v sont dans l'intervalle 1...k. Par

exemple, la di�érence entre M1 et M2 est estimée par m1 −m2.

Ces estimateurs peuvent être considérés comme une mesure globale avancée des per-

formances. Bien que ce test ne peut pas fournir une probabilité d'erreur associée avec le

rejet de l'hypothèse nulle d'égalité, il est particulièrement utile pour estimer la distance

par laquelle un algorithme surpasse l'autre.

Les résultats de l'estimation du contraste des algorithmes comparés sont dans la

Table 3.10 (Garcia et al., 2010).

Ces résultats viennent con�rmer ceux obtenus par les procédures post-hoc. En e�et,

dans la Table 3.10, les estimateurs de ABC-PP par rapport aux cinq algorithmes sont

négatives ce qui signi�e qu'il a obtenu des taux d'erreurs très bas par rapport aux esti-

mateurs médianes en le comparant aux algorithmes cités.

En plus, la ligne de PMBBO contient des valeurs négatives par rapport aux algorithmes

TPC-GA, SMADE et fk-PSO ce qui con�rme les résultats du test de Friedman en classant

PMBBO devant ces algorithmes.

92

Page 110: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

La conclusion que nous pouvons tirer à partir de l'analyse statistique est que l'al-

gorithme ABC-PP montre une amélioration remarquable par rapport aux algorithmes

TPC-GA, fk-PSO, PMBBO, SMADE et ICMAELILS.

Même le deuxième algorithme proposé PMBBO a donné de bons résultats et il s'est

classé avant les algorithmes TPC-GA, SMADE et fk-PSO.

Table 3.10: Estimation du Contraste

ICMAELILS TPC-GA SMADE fk-PSO PMBBO ABCPP

ICMAELILS 0,000 -94,06 -67,51 -90,78 -65,03 43,91

TPC-GA 94,06 0,000 26,55 3,282 29,03 138,0

SMADE 67,51 -26,55 0,00 -23,27 2,479 111,4

fk-PSO 90,78 -3,282 23,27 0,000 25,74 134,7

PMBBO 65,03 -29,03 -2,479 -25,74 0,000 108,9

ABCPP -43,91 -138,0 -111,4 -134,7 -108,9 0,000

5 Réglage d'un contrôleur PID par l'approche ABC-PP

Pour appliquer l'algorithme ABC-PP pour le réglage des gains Kp, Ki, Kd d'un contrô-

leur PID, chaque combinaison de gains est considérée comme une source de nourriture

(solution candidate). L'objectif est de minimiser l'erreur entre la sortie et la sortie désirée

en utilisant la fonction fg dé�nit en Équation (2.23). L'algorithme proposé est utilisé pour

ajuster les paramètres d'un contrôleur PID pour commander le pendule inversé.

Une comparaison des performances de l'algorithme ABC-PP avec les algorithmes gé-

nétiques (AG) a été e�ectuée en utilisant les paramètres présentés dans la Table 3.11.

Nous avons utilisé la fonction objectif fg avec beta = log(2) pour comparer l'approche

ABC-PP avec les résultats des algorithmes génétiques(AG).

Nous avons mesuré les couts minimaux de la fonction objectif pour les deux algo-

rithmes, les résultats sont dans la Figure 3.11. L'évolution des gains du PID pour l'algo-

rithme ABC-PP est dans la Figure 3.12.

Nous pouvons remarquer que l'algorithme ABC-PP a atteint un coût plus petit que

les AG (2.90). Les erreurs de l'angle du pendule sont dans la Figure 3.13.

Le dépassement a été réduit à 0.01Rad tandis qu'il est de 0.06Rad pour les AG dans

les mêmes conditions.

Dans la Table 3.12, nous avons résumé les résultats de la comparaison entre notre

algorithme (ABC-PP) et les algorithmes génétiques pour 10 exécutions indépendantes.

Il est clair que les gains obtenus par ABC-PP améliorent les performances du système.

ABC-PP a obtenu de meilleurs temps de réponse en 7 cas, plus petit dépassement dans 9

cas par rapport aux algorithmes génétiques (cf. Table 3.12).

93

Page 111: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

Table 3.11: Paramètres de ABC-PP pour l'optimisation d'un PID

Paramètre Valeur

Taille de la colonie (N) 30

Nombre Maximum d'évaluations 10000

Nombre de prédateurs 6

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 302.9

2.92

2.94

2.96

2.98

3

Cycles

Fonction

objective

ABC-PPGA

Figure 3.11: Valeurs minimales de la fonction objectif obtenues par ABC-PP et les AG)

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 300

5

10

15

20

25

Cycles

Gains

KpKdKi

Figure 3.12: Évolution des gains PID obtenus par ABC-PP

94

Page 112: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

f

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

−0.2

0

Tiemps(s)

Angle(R

ad)

ABC-PPGA

Figure 3.13: Erreurs angulaires obtenues par ABC-PP et les AG

Table 3.12: Performance du pendule inversé contrôlé par PID (ABC-PP et les AG)

Exécution ABC-PP GA

Min �tness Tr(s) Omax Min �tness Tr(s) Omax

1 2.900 0.155 0.012 2.931 0.112 0.060

2 2.921 0.160 0.012 2.902 0.158 0.014

3 2.935 0.194 0.014 2.972 1.783 0.018

4 2.922 0.172 0.011 2.928 0.175 0.020

5 2.928 0.171 0.012 2.981 1.730 0.020

6 2.947 0.208 0.015 2.968 2.301 0.048

7 2.928 0.180 0.012 2.994 4.117 0.014

8 2.936 0.191 0.014 2.913 0.167 0.013

9 2.939 0.197 0.014 3.015 4.360 0.031

10 2.911 0.178 0.012 2.910 0.164 0.013

6 Conclusion

Dans ce chapitre, une tentative d'amélioration de l'algorithme d'optimisation par co-

lonie d'abeilles arti�cielles est présentée a�n d'accroitre son e�et de diversi�cation. Il a été

hybridé en remplaçant la phase des scouts avec l'algorithme prédateur et proies amélioré.

Pour valider l'algorithme obtenu (ABC-PP), une étude statistique a été réalisée en le

comparant à l'algorithme PMBBO présenté au chapitre 2 et quatre autres algorithmes

d'optimisation issus de la compétition CEC2013.

Dans le but d'appliquer les tests paramétriques, des conditions préalables ont été

véri�ées sans succès (Normalité et égalité de variance). Ces résultats nous ont conduit

à appliquer les tests non paramétriques de Wiilcoxon pour une comparaison de paires

95

Page 113: Approches de l'intelligence artificielle pour la commande

Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré

et ensuite le test de Friedman et ses alternatives pour une comparaison multiples. Les

résultats des tests non-paramétriques ont con�rmé les performances de l'algorithme ABC-

PP en le classant devant tous les autres algorithmes comparés.

Étant donnée que l'algorithme ABC-PP est meilleur que PMBBO, il va être utilisé

pour l'apprentissage d'un réseau de neurones RBF dans le but d'estimer les paramètres

du modèle dans la commande équivalente pour une commande sliding mode.

Les travaux présentés dans ce chapitre ont été validés par une communication inter-

nationale ICSC13.

96

Page 114: Approches de l'intelligence artificielle pour la commande

Chapitre 4

Apprentissage hors ligne des réseaux de

neurones RBF par l'algorithme

ABC-PP

1 Introduction

L'apprentissage d'un réseau de neurones est une tâche d'optimisation dont le but est

de trouver un ensemble de poids qui minimise une erreur mesurée. Généralement, l'espace

de recherche est de grande dimension et, en fonction de la mesure d'erreur et les données

d'entrée, il peut contenir de nombreux optima locaux. Certains algorithmes d'appren-

tissage traditionnels tel que la rétro-propagation, utilisent une recherche de gradient, et

peuvent se retrouver piégés dans des optima locaux. En revanche, les algorithmes évo-

lutionnaires n'utilisent aucune information de gradient, et sont probablement les mieux

placés pour éviter d'être pris au piège du fait de leur exploration simultanée de plusieurs

régions de l'espace de recherche (Cantú-Paz and Kamath, 2005).

Une simple combinaison d'algorithmes évolutionnaires et réseaux de neurones est d'utili-

ser l'algorithme évolutionnaire pour la recherche des poids pour que le réseau fonctionne

comme souhaité. L'architecture du réseau est �xée par l'utilisateur avant l'expérience.

Dans cette approche, chaque individu de l'algorithme évolutionnaire représente un vec-

teur avec tous les poids du réseau.

Dans (Caudell and Dolan, 1989), (Yeremia et al., 2013) et (Mahajan and Kaur, 2013),

les poids obtenus sont utilisés dans le réseau sans aucun ra�nement . Ceci est particu-

lièrement utile lorsque la fonction d'activation des neurones est non di�érentiable et les

algorithmes d'apprentissage traditionnelles ne peuvent pas être utilisés. Une alternative

est d'utiliser la rétro-propagation ou d'autres méthodes pour a�ner les poids représentés

dans chaque individu (Kitano, 1990), (Skinner and Broughton, 1995). La motivation de

cette approche est que les algorithmes évolutionnaires identi�ent rapidement les régions

97

Page 115: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

prometteuses de l'espace de recherche, mais ils ne peuvent pas a�ner très rapidement

les paramètres. Ainsi, les algorithmes évolutionnaires sont utilisés pour trouver un en-

semble prometteur des poids initiaux à partir duquel une méthode à base de gradient

peut rapidement atteindre un optimum.

Ces approches sont simples et ont donné de bons résultats, mais sou�rent de plusieurs

problèmes. Tout d'abord, étant donné que des couches adjacentes dans le réseau sont

habituellement entièrement connectées, le nombre total de poids est en O(n2), où n est

le nombre d'unités ce qui conduit à des individus plus longs et des populations plus

importantes, qui à son tour va entraîner des coûts de calcul plus élevés. Pour les petits

réseaux, les algorithmes évolutionnaires peuvent être utilisés pour rechercher des bons

poids e�cacement, mais ces méthodes ne peuvent pas être étendues vers des réseaux plus

larges (Cantú-Paz and Kamath, 2005).

Un autre inconvénient est le problème des permutations (Radcli�e, 1990). Le problème

est que, en permutant les n÷uds cachés d'un réseau, la représentation des poids dans

l'individu changerait mais le réseau reste le même. Pour s'y remédier, (Thierens et al.,

1991) proposent de placer le poids entrant et sortant d'un n÷ud caché l'un à côté de

l'autre. Une analyse réalisée par (Hancock, 1992) suggère que le problème de permutation

n'est pas aussi di�cile que cela est souvent présenté.

Dans ce chapitre, nous allons comparer l'algorithme proposé dans le précédent chapitre

(ABC-PP) avec quelques algorithmes évolutionnaires pour l'apprentissage des réseaux de

neurones RBF. La comparaison est réalisée à travers une étude statistique réduite pour

choisir l'approche à appliquer pour l'approximation des paramètres du modèle dans la

commande sliding mode des systèmes non linéaires.

Des simulations sur le système pendule inversé seront présentées dans la dernière

section en comparant les performances de l'algorithme ABC-PP et ceux de la rétro-

propagation de l'erreur pour l'apprentissage des réseaux de neurones RBF appliqués dans

la commande sliding mode.

2 Apprentissage des réseaux RBF par les algorithmes

évolutionnaires

2.1 Classi�cation des approches d'apprentissage

Les auteurs de (Miller et al., 1989) ont identi�é deux grandes approches pour utiliser les

algorithmes évolutionnaires pour concevoir la topologie des réseaux neuronaux : utiliser un

encodage direct pour spéci�er chaque connexion du réseau ou une spéci�cation indirecte

de la connectivité.

1) Encodage direct :

98

Page 116: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

L'idée principale derrière l'encodage direct est que le réseau neuronal est considéré comme

un graphe orienté où chaque n÷ud représente un neurone et chaque arc est une connexion.

Une méthode courante de représenter des graphes orientés est avec une matrice de connec-

tivité binaire : le (i, j)ime élément de la matrice est 1 s'il y a un arête entre les n÷uds i

et j, et zéro autrement. Les algorithmes évolutionnaires codés en binaire semblent bien

adaptés pour l'encodage direct, car la matrice de connectivité peut être représentée sim-

plement en concaténant ses lignes ou ses colonnes (Miller et al., 1989), (Belew et al., 1991).

2) Encodage indirect :

Après avoir opté pour une topologie et un algorithme d'apprentissage particulier pour un

réseau, l'algorithme évolutionnaire est utilisé pour trouver les valeurs des paramètres qui

complètent la spéci�cation du réseau.

Par exemple, avec un réseau feedforward entièrement connecté, l'algorithme évolu-

tionnaire peut rechercher le nombre de couches et le nombre des unités par couche. Un

autre exemple serait de coder les paramètres d'un algorithme d'apprentissage particulier,

comme le momentum et le taux d'apprentissage de la rétro-propagation (Marshall and

Harrison, 1991). Cependant, cette méthode est limitée par le choix initial de la topologie

et de l'algorithme d'apprentissage.

2.2 Travaux antérieurs

Une version améliorée des algorithmes génétiques est utilisée dans (Leung et al., 2003)

pour l'ajustement de la structure et des paramètres d'un réseau de neurones. Un réseau

de neurones avec des commutateurs introduits dans les liens est proposé pour prédire les

tâches solaires. Tandis que (Mahajan and Kaur, 2013) a conçu une méthode souple pour

résoudre le problème du voyageur de commerce en utilisant les algorithmes génétiques

a�n de donner une approximation maximale du problème de la réduction des coûts.

Une approche génétique a été utilisée pour l'apprentissage des réseaux de neurones

à fonctions de bases radiales dans (da Mota et al., 2012), l'algorithme est utilisé pour

ajuster les poids entre la couche cachée et la sortie pour classi�er des problème de quatre

bases de données connues avec une précision entre 91 et 98%.

D'autres algorithmes évolutionnaires ont été appliqués récemment pour l'apprentissage

de réseaux de neurones, nous pouvons citer : Arti�cial Bees Colony (ABC) (Nandy et al.,

2012) et (Karaboga et al., 2007), Particle swarm optimization (PSO) (Liu et al., 2004) et

(Qasem and Shamsuddin, 2009), Di�erential Evolution (Si et al., 2012) et (Yu and He,

2006), Arti�tial Immune Algorithm (AIS)(Castro and von Zuben, 2001).

99

Page 117: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

3 Approximation des fonctions par les réseaux RBF

3.1 Approximation des fonctions

Soit y = f(x) une fonction avec x ∈ RD et y ∈ RD et soit Hi, i = 1 . . . N un ensemble

�ni de fonctions de bases.

La fonction f peut être écrite sous la forme (4.1).

y = f(x) = f(x) + r(x) (4.1)

où r(x) est le résidus.

La fonction f(x) peut être approximée par f(x) donnée par la forme (4.2)

y ' f(x) =N∑i=1

wihi(x) (4.2)

L'objectif est de minimiser l'erreur en réglant les paramètres de wi de manière appropriée.

Un choix possible pour l'erreur d'approximation est la norme L2 de la fonction résiduelle

r(x) dé�nie comme :

‖r(x)‖L2

2 =

∫r(x)2dx (4.3)

3.2 Approximation des fonctions par les réseaux RBF

La sortie d'un réseau RBF est donnée par l'équation (4.4)

y = f(x) =N∑i=1

aiφi(x, µi, σi) (4.4)

En utilisant le réseau de l'équation (4.4), la fonction f(x) peut être écrite sous la forme :

y =N∑i=1

aiφi(x, µi, σi) + r(x) = y + r(x). (4.5)

L'erreur peut être minimisée en ajustant de manière appropriée, les poids ai, les centres

µi et les largeurs σi.

Lorsque la fonction f(x) est inconnue, et en disposant d'un ensemble de couples Entrées-

Sorties (xi, yi) , i = 1..n, nous pouvons construire un réseau RBF et l'apprendre à suivre

la fonction f(x).

L'apprentissage de ce réseau est un problème d'optimisation pour choisir les valeurs des

100

Page 118: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

centres, poids et largeurs a�n de minimiser le critère (4.6) :

J2(µ, σ, a) =n∑i=1

||yi − yi||2. (4.6)

4 Approche d'apprentissage des réseaux RBF par l'al-

gorithme ABC-PP

L'apprentissage des réseaux de neurones à fonctions de bases radiales avec N neurones

cachés peut être considéré comme un problème d'optimisation dont l'objectif est de réduire

l'erreur entre la sortie désirée de la fonction à approximer et la sortie du réseau.

Un algorithme d'apprentissage pour ces réseaux doit déterminer l'architecture du ré-

seau et ses paramètres à savoir le vecteur des centres µ, celui des largeurs σ des fonctions

gaussiennes et le vecteur des poids des neurones a entre la couche cachée et la couche de

sortie.

L'algorithme ABC-PP peut être utilisé pour l'apprentissage hors ligne du réseau RBF a�n

d'approximer une fonction en minimisant la fonction objectif J donnée en équation (4.6).

Dans ce cas, une source de nourriture dans l'algorithme ABC-PP est constituée de

la concaténation des vecteurs des centres, des largeurs et des poids comme il est montré

dans l'équation (4.7).

sni = [µ, σ, a]. (4.7)

La procédure d'apprentissage consiste à suivre les étapes suivantes (Salem and Khel�,

2014a) :

• Collecte des données d'apprentissage.

Un ensemble d'entrées choisi aléatoirement est présenté à la fonction et les sorties

correspondantes sont générées. Cet ensemble est divisé en base d'appretisage (60%),

base de validation (20%) et base de test (20%).

• Choix du nombre de neurones.

Le nombre des neurones N dans la couche cachée est déterminé empiriquement en

essayant déférentes valeurs.

• Choix des paramètres de l'algorithme d'apprentissage ABC-PP (nombre de sources

de nourriture et nombre de prédateurs ).

• Initialisation des sources de nourritures initiales de façon aléatoire.

• Apprentissage et validation des résultats.

Le principe consiste à mesurer les performances pendant l'apprentissage sur une

base de validation qui est di�érente de la base d'apprentissage. Lorsque le modèle

n'est pas trop ajusté aux données de l'apprentissage, les fonctions coûts sur la base

101

Page 119: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

de validation et d'apprentissage diminuent ensemble. Lorsque le modèle commence à

être surajusté, la fonction de coût sur la base d'apprentissage continue de diminuer,

alors que la fonction coût sur la base de validation augmente.

• Sauvegarde de la matrice des paramètres du réseau de neurones.

Un schéma général de la procédure d'apprentissage hors ligne des réseaux RBF par

l'algorithme ABC-PP pour l'approximation des fonctions est donné dans la Figure 4.1

x Fonction

Réseau

RBF

ABC-PP

y−

+

y

[µ, σ, a]

Figure 4.1: Procédure d'apprentissage des réseaux RBF par l'algorithme ABC-PP

4.1 Analyse statistique de l'apprentissage des réseaux RBF par

les algorithmes évolutionnaires

Pour étudier les performances de l'algorithme d'optimisation proposé ABC-PP pour

l'apprentissage des réseaux RBF, il sera comparé aux algorithmes : PMBBO, AG et ABC.

Les algorithmes comparés seront appliqués pour l'apprentissage des réseaux RBF pour

l'approximation de 10 fonctions citées ci dessous (Digalakis and Margarits, 2000) :

� Sphere

F1(x1 · · ·xD) =D∑i=1

x2i (4.8)

� Ackley

F2(x1 · · ·xD) = −20exp(−0.2

√√√√ 1

D

D∑i=1

x2i )− exp(1

D

D∑i=1

cos(2πxi)) + 20 + e (4.9)

� Ridge

F3(x1 · · ·xD) =D∑i=1

(i∑

j=1

xj)2 (4.10)

102

Page 120: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

� Rosenbrock

F4(x1 · · ·xD) =D−1∑i=1

100 (xi+1 − x2i )2 + (xi − 1)2 (4.11)

� Schwefel

F5(x1 · · ·xD) =D∑i=1

(−xisin(√|xi|)) + α ·D, α = 418.982887 (4.12)

� Rastrigin

F6(x1 · · ·xD) = D ∗ 10 +D∑i=1

(x2i − 10 cos(2πxi)) (4.13)

� Trid

F7(x1 · · · xD) =D∑i=1

(xi − 1)2 −D∑i=1

(xixi−1) (4.14)

� Sum squared

F8(x1 · · ·xD) =D∑i=1

ix2i (4.15)

� Power Sum

F9(x1 · · ·xD) =D∑i=1

[(D∑i=1

(xji )

)− bj

]2(4.16)

� Griewangk

F10(x1 · · ·xD) = −n∏i=1

cos

(xi√i

)+

n∑i=1

x2i4000

+ 1 (4.17)

Pour e�ectuer la comparaison, chaque algorithme est exécuté 30 exécutions indépen-

dantes pour l'apprentissage d'un réseau RBF pour l'approximation de chaque problème

(D = 10). Le critère d'arrêt est soit le nombre maximum des évaluations de la fonction

objectif ou lorsque J ≤ ε ou J est l'erreur d'apprentissage donnée dans l'équation (4.6).

Les paramètres des algorithmes utilisés sont donnés dans la Table 4.1 et Table 4.2.

Les erreurs moyennes d'apprentissage obtenues à partir des 30 exécutions sont illustrées

dans la Table 4.3. Ces résultats seront analysés avec les tests de Wilcoxon et estimation

du Contraste.

103

Page 121: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

Table 4.1: Paramètres des algorithmes PMBBO, ABC et ABC�PP pour l'apprentissagedes réseaux RBF.

PMBBO ABC-PP et ABC

Paramètre Valeur Paramètre ABC-PP ABC

Nombre d'évaluations 100D Nombre d'évaluations 100D 100D

Nombre d'habitats N 100 Nombre d'abeilles N 100 100

E,I 1 Limit / 3

/ / Nombre de scout / 1

Nombre de prédateurs npred 6 Nombre de prédateurs 6 /

Neurones cachés 20 Neurones cachés 20 20

ε 1e− 6 ε 1e− 6 1e− 6

Table 4.2: Paramètres des algorithmes Génétiques pour l'apprentissage hors ligne desréseau RBF

Paramètre Valeur

Chromosomes 100

Nombre des évaluations 100D

Taux de croisement 0.6

Type de croisement Deux points

Taux de Mutation 0.01

type de Mutation bit �ip

Neurones cachés 20

ε 1e− 6

Table 4.3: Valeurs moyennes du critère J pour les 10 fonctions

Fct ABC-PP ABC PMBBO AG

F1 5.1230 6.8940 6.4120 8.0160

F2 21.2510 22.9950 25.7850 24.0110

F3 12.0201 18.1660 19.0550 38.1090

F4 30.1580 30.9870 35.3290 36.5560

F5 99.1250 101.2540 114.7710 120.3640

F6 41.9000 41.5620 47.2280 43.0000

F7 211.5440 249.7100 241.6500 243.2000

F8 121.1000 121.1190 122.8900 124.4050

F9 18.2800 19.2210 24.3060 24.6000

F10 54.1130 60.3250 61.1040 62.0240

104

Page 122: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

4.1.1 Test de Wilcoxon signed ranks

Le test de Wilcoxon est réalisé pour comparer les approches d'apprentissage des ré-

seaux de neurones pour l'approximation des fonctions citées ci-dessus.

La Table 4.4 montre les valeurs des di�érences positives R+, négatives R−, et les valeurs

des p-values calculées pour toutes les paires en utilisant SPSS.

D'après la Table,

• ABC-PP a un avantage signi�catif sur les autres algorithmes (ABC, PMBBO et

AG) avec un niveau de signi�cation α = 0.01,

• ABC est meilleur que les algorithmes génétiques avec α = 0.05.

• les hypothèses � AG est meilleur que ABC � et � AG est meilleur que PMBBO �

sont rejetées.

Table 4.4: Résultats du test Wilcoxon pour l'apprentissage des réseaux RBF

Pair R− R+ p-value

ABC-PP vs ABC 2 53 0.009

ABC-PP vs. AG 0 55 0.005

ABC-PP vs. PMBBO 45 10 0.005

PMBBO vs. ABC 42 13 0.139

AG vs. PMBBO 15 40 0.203

ABC vs. AG 8 47 0.047

4.1.2 Estimation du Contraste

Le test Estimation du Contraste est utilisé pour avoir une vue globale sur tous les

paires des algorithmes considérés. Les résultats sont détaillés dans la Table 4.5.

Les résultats obtenus de ce test viennent con�rmer celles du test de Wilcoxon. Elles

mettent en évidence que l'algorithme ABC-PP est meilleur que les autres pour ce problème

( Valeurs négatives par rapport aux autres algorithmes).

Nous ne pouvons pas statuer que ABC-PP est meilleurs que les autres en général mais en

se basant sur le théorème de "No free lunch" (Wolpert and Macready, 1997), nous pouvons

juste dire que ABC-PP a obtenu de meilleurs résultats pour le problème de l'apprentissage

des réseaux RBF en particulier dans les conditions considérées mais nous ne pouvons en

aucun cas généraliser (Salem and Khel�, 2014a).

105

Page 123: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

Table 4.5: Résultats du test d'estimation du contraste pour l'apprentissage des réseauxRBF

ABC-PP ABC PMBBO AG

ABC-PP 0.000 -1.869 -3.898 -5.767

ABC 1.869 0.000 -2.993 -4.219

PMBBO 4.861 2.993 0.000 -1.227

AG 6.088 4.219 1.227 0.000

5 Commande sliding mode par l'approche RBF-ABC-

PP

5.1 Architecture proposée

L'approche proposée d'apprentissage hors ligne des réseaux de neurones RBF par l'al-

gorithme (ABC-PP) peut être utilisée pour l'identi�cation des paramètres d'un système

non-linéaire pour les exploiter ensuite dans une commande sliding mode. En e�et, l'iden-

ti�cation des paramètres réels d'un modèle est une sorte d'approximation de fonctions

où, en utilisant un ensemble expérimental de données Entrée/Sortie, nous estimerons le

modèle inconnu du système réel.

Pour résoudre le problème de dépendance du modèle et l'obligation de connaitre les para-

mètres du système non linéaire dans la commande slidng mode (Équation (1.31) page 32),

nous proposons d'utiliser un réseau de neurones RBF pour estimer les paramètres des deux

fonctions non linéaires qui composent le système f(x) et g(x). Le réseau RBF proposé est

donné dans la Figure 4.2 (Salem and Khel�, 2014a).

Le réseau proposé a comme entrée le vecteur d'état x et deux sorties : f(x) et g(x).

La sortie du réseau est donnée par l'équation (4.18)

f(x) = a1TΦ(x).

g(x) = a2TΦ(x). (4.18)

où Φ(x) est le vecteur des sorties des neurones cachés, a1 et a2 sont les vecteurs corres-

pondants aux poids des deux sorties.

En remplaçant les fonctions f(x) et g(x) dans l'équation (1.31) par les estimations f(x)

et g(x), la commande équivalente devient :

ue =1

g(x)

[−f(x) + xd − λx+ λxd

](4.19)

Le schéma bloc de la commande sliding mode à base des réseaux RBF et l'algorithme

ABC-PP est donné par la Figure 4.3 (Salem and Khel�, 2014a).

106

Page 124: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

x1

x2

xNx

f(x)

g(x)

a11

a12a1N

a21

a22

a2N

Figure 4.2: Architecture de la commande équivalente par réseau RBF et ABC-PP.

yd(t) Commande

équivalente

e(t)

Ksign(s)

∑RBF ABC-

PP

s = e+ λes

ue(t)+

uc(t)

+

Système

x(t)f(x), g(x)

u(t) y(t)

Figure 4.3: Commande Sliding mode par les réseaux RBF et ABC-PP

5.2 Résultats de simulation

L'approche proposée d'apprentissage hors-ligne RBF-ABC-PP est utilisée pour la com-

mande sliding mode du pendule inversé. Avant d'exploiter le réseau de neurones RBF dans

le processus de commande, nous avons commencé par apprendre le réseau par l'algorithme

ABC-PP et le comparer avec le très connu, algorithme de rétro-propagation.

5.2.1 Apprentissage du réseau RBF

Le réseau RBF utilisé pour estimer le modèle du pendule inversé a pour entrée le

vecteur d'état [θ, θ] et la sortie est constituée des deux fonctions f(θ, θ) et g(θ, θ). Les

données collectées de la base d'apprentissage sont présentées dans la Figure 4.4.

Le nombre des neurones N dans la couche cachée du réseau est déterminé empirique-

ment. Nous avons obtenu les valeurs N = 16 pour l'algorithme ABC-PP et N = 16 pour

la rétro-propagation.

L'apprentissage du réseau est réalisé hors-ligne en utilisant 60% de la base et 20%

pour la validation avec les paramètres donnés dans la Table 4.6.

L'apprentissage du réseau est e�ectué séparément par les deux algorithmes ABC-PP et

rétro-propagation sur le même ensemble des données jusqu'à atteindre le critère d'arrêt qui

est soit un nombre d'itérations/ cycles ou quand l'erreur quadratique de l'apprentissage

J descend au dessous d'un seuil ε.

107

Page 125: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

L'évolution de J est représentée dans la Figure 4.5 où nous pouvons remarquer que

l'algorithme de rétro-propagation tarde jusqu'à l'itération 200 pour descendre au dessous

de 1 et atteindre des valeurs plus au moins acceptables. Dans le même temps, ABC-PP a

atteint les mêmes valeurs après le 10ieme cycle.

L'erreur obtenue avec l'algorithme ABC-PP est 1e−06 et celle de la rétro-propagation

est égale à 2e− 04.

Nous remarquons aussi que l'algorithme de rétro-propagation tombe souvent dans des

minima locaux où l'erreur quadratique n'évolue pas pendant plusieurs époques (jusqu'à 20

itérations sans changement) alors que ABC-PP évolue rapidement vers la valeur minimale.

Ceci est dù à la diversi�cation apportée par le modèle prédateur et proie amélioré qui

permet d'explorer d'autres zones de l'espace de recherche.

0 50 100 150 200 250 300 350 400 450 500

−1

0

1

Echantillons

Angle(R

ad)

Figure 4.4: Base d'apprentissage

Table 4.6: Paramètres des algorithmes ABC-PP et rétro-propagation

ABC-PP Rétro-propagation

Paramètre Valeur Paramètre Valeur

Nombre de cycles (cmax) 500 Nombre d'itérations 500

Nombre d'abeilles N 200 Taux d'apprentissage 0.6

Nombre de prédateurs 5 Momentum 0.9

Neurones cachés 16 Neurones cachés 16

Entrées θ, θ Entrées θ, θ

Sorties f(θ, θ) et g(θ, θ) Sorties f(θ, θ) et g(θ, θ)

ε 1e− 6 ε 1e− 6

108

Page 126: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

0 50 100 150 200 250 300 350 400 450 500

0

2

4

6

8

10

12

Itérations/ Cycles

Erreurd'apprentissage Rétropropagation

ABC-PP

Figure 4.5: Évolution de l'erreur d'apprentissage pour ABC-PP et rétro-propagation

5.2.2 Application à la commande sliding mode

Les deux réseaux obtenus par apprentissage par la rétro-propagation et ABC-PP sont

utilisés chacun à son tour pour estimer les paramètres du pendule inversé a�n de les

injecter dans une loi de commande sliding mode.

Le pendule inversé est contrôlé pour ramener la tige à suivre une trajectoire sinusoïdale

en utilisant le réseau RBF dans la boucle de la commande sliding mode pour générer la

partie équivalente de la commande, nous avons obtenu les résultats de la Figure 4.6 où

la position désirée et les positions réelles (ABC-PP et rétro-propagation) de la tige du

pendule sont présentées. Les erreurs de poursuite de l'angle sont dans la Figure 4.7.

D'après ces Figures, le réseau obtenu par l'algorithme ABC-PP ramène le pendule

inversé à suivre la trajectoire après un temps de 0.5s avec une erreur au voisinage de zéro

(cf. Figure 4.7). Dans la même �gure, l'algorithme de rétro-propagation n'a pas obtenu

les mêmes performances d'apprentissage d'où la di�érence remarquée entre la trajectoire

désirée et réelle (±0.05Rad).

Ces di�érences de performances sont justi�ées par les résultats de l'apprentissage des

deux réseaux RBF. Les erreurs d'estimation pour les fonctions f et g pendant la commande

sont montrées dans les Figures 4.8 et 4.9.

Il est très clair que le réseau RBF avec ABC-PP a donné une meilleure estimation

des deux composantes du modèle du pendule que le réseau avec rétro-propagation. Cette

supériorité du réseau ABC-PP-RBF justi�e bien les résultats de l'erreur de poursuite de

la Figure 4.7. Le signal de la commande sliding mode en utilisant l'algorithme ABC-PP

ne présente pas de chattering comme il est illustré dans la Figure 4.10.

109

Page 127: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

0 1 2 3 4 5 6 7 8 9 10

−0.1

0

0.1

0.2

Temps(s)

Angle(R

ad)

Angle désiréAngle , ABC-PPAngle , Rétro-propagation

Figure 4.6: Positions angulaires désirée et réelles (ABC-PP et rétro-propagation)

0 1 2 3 4 5 6 7 8 9 10

0

5 · 10−2

0.1

0.15

Temps(s)

Erreurangulaire(Rad)

ABC-PPRetropropagation

Figure 4.7: Erreurs Angulaires e(t) (ABC-PP et rétro-propagation )

0 1 2 3 4 5 6 7 8 9 10

−1

0

1

Temps(s)

Erreurd'estimationf(x)

Rétro-propagationABC-PP

Figure 4.8: Erreur de f(x) pendant la commande sliding mode(ABC-PP etrétro-propagation)

110

Page 128: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

0 1 2 3 4 5 6 7 8 9 100

0.5

1

Temps(s)

Erreurd'estimationg(x)

RétropropagationABC-PP

Figure 4.9: Erreur de g(x) pendant la commande sliding mode (ABC-PP etrétro-propagation)

0 1 2 3 4 5 6 7 8 9 10

−1

0

1

Temps(s)

Signal

decommande

Figure 4.10: Signal de commande sliding mode (ABC-PP-RBF)

5.2.3 Test de robustesse

Le problème des réseaux dont l'apprentissage est réalisé hors ligne est qu'ils ne peuvent

pas approximer avec exactitude les données entachées de bruit. la solution est donc de

refaire l'apprentissage.

Pour tester la robustesse du réseau RBF avec ABC-PP, nous avons injecté un bruit blanc

dans la sortie du système (cf. Figure 4.11).

Le réseau n'arrive pas à réagir face à ce bruit d'où l'accroissement de l'erreur d'esti-

mation pour les fonctions f et g comme le montrent les Figure 4.12 et 4.13.

L'utilisation de tel bruit et la détérioration des performances d'approximation du

réseau conduisent forcement à une erreur de poursuite moins bonne que l'antérieur comme

111

Page 129: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

il est montré dans la Figure 4.14 et l'apparition du phénomène du chattering (Oscillations

sur la courbe du signal de commande) dans la Figure 4.15 est la conséquence de la mauvaise

estimation du réseau RBF.

0 1 2 3 4 5 6 7 8 9 10

−0.5

0

0.5

1·10−2

Temps(s)

Bruit

Figure 4.11: Bruit blanc

0 1 2 3 4 5 6 7 8 9 10

−1

0

1

Temps(s)

Erreurestimationf(x)

Figure 4.12: Erreur d'estimation de la fonction f(x) avec bruit

112

Page 130: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

0 1 2 3 4 5 6 7 8 9 10

1

1.05

1.1

Temps(s)

ErreurEstim

ationg(x)

Figure 4.13: Erreur d'estimation de la fonction g(x) avec bruit

0 1 2 3 4 5 6 7 8 9 10

0

2

4

6·10−2

Temps(s)

Erreurangulaire(rad)

Figure 4.14: Erreur angulaire de la commande sliding mode (ABC-PP-RBF) avec bruit

0 1 2 3 4 5 6 7 8 9 10

−1

0

1

Temps(s)

Signal

decommande

Figure 4.15: Sortie du contrôleur sliding mode (ABC-PP-RBF) avec bruit

113

Page 131: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

6 Analyse, critiques et motivations pour le chapitre sui-

vant

L'objectif de l'apprentissage d'un réseau de neurones RBF est de trouver une com-

binaison de paramètres (poids, largeurs et centres) a�n d'approximer un comportement

souhaité. Ceci peut être vu comme un problème d'optimisation où une solution candidate

est constituée de la concaténation des paramètres d'un réseau, la fonction objectif est une

fonction de l'erreur entre le comportement réel du réseau et le comportement désiré.

Dans ce chapitre, nous avons appliqué l'algorithme ABC-PP qui est une hybridation

de l'algorithme colonie d'abeilles arti�cielles (ABC) pour l'apprentissage des réseaux de

neurones RBF. L'algorithme a été d'abord validé par une comparaison avec d'autres algo-

rithmes de la même famille en les utilisant dans l'apprentissage des réseaux de neurones

RBF pour l'approximation des fonctions. Les résultats obtenus étaient prometteurs où

notre algorithme s'avérait le mieux placé.

Sur la base de ces résultats, nous avons appliqué l'algorithme pour l'apprentissage

d'un réseau de neurones RBF pour estimer les paramètres des fonctions plus complexes :

le modèle d'un système non linéaire.

Cette application vient résoudre une des limites les plus pénalisantes de la commande

sliding mode des systèmes non linéaires, à savoir, la dépendance du modèle et la nécessité

de connaitre ses paramètres à l'avance (cf. � 6.2.3, page 32).

Nous avons commencé par collecter les données entrées/sorties du système non linéaire

(pendule inversé) pour les utiliser dans l'apprentissage du réseau RBF, la sortie de ce

réseau serais une estimation des fonctions du modèle dynamique du système.

Après avoir trouvé la bonne combinaison des paramètres du réseau RBF par l'algo-

rithme ABC-PP, nous avons injecté ce réseau dans la boucle de la commande sliding mode

pour calculer la commande équivalente.

Les résultats obtenus dans un environnement idéal ont été acceptables, mais l'appli-

cation des algorithmes d'optimisation pour l'apprentissage des réseaux de neurones RBF

pour l'estimation des paramètres des systèmes non linéaires peut rencontrer les limites

suivantes :

• L'apprentissage des réseaux de neurones RBF par tels algorithmes nécessite la dis-

ponibilité de toute la base des données de l'apprentissage, ce qui ne peut pas être

le cas quand le système n'est pas disponible pour collecter les données comme les

machines industrielles déjà en fonctionnement.

• Le fait que le nombre des neurones doit être déterminé par tâtonnement, constitue un

handicap pour l'algorithme d'apprentissage proposé puisque ce processus empirique

combiné à l'aspect stochastique de l'algorithme ABC-PP diminue les chances de

trouver un ensemble optimal de paramètres pour le réseau.

114

Page 132: Approches de l'intelligence artificielle pour la commande

Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP

• Les systèmes non linéaires sont généralement sujets à des incertitudes paramétriques

où l'environnement altère les paramètres du système par la chaleur, frottement et

autres.

Ces incertitudes a�ectent le système conduisant le réseau appris à partir de ces

données, à fournir une sortie divergente par rapport à la sortie réelle du système.

• L'environnement de fonctionnement des systèmes non linéaires n'est pas toujours

idéal, l'existence de phénomènes naturelles tel que les vents et les frottements génère

des bruits in�uant ainsi sur la robustesse du contrôleur sliding mode, celui-ci, et en

essayant de compenser ces bruits et incertitudes va utiliser de grands gains ce qui

conduit à l'apparition du phénomène de chattering (Voir les résultats du test de

robustesse de ce chapitre).

Ces limites nous ramènent à conclure que l'algorithme ABC-PP en particulier, n'est pas

approprié pour l'apprentissage des réseaux de neurones utilisés pour l'approximation des

systèmes non linéaires réels, non pas parce qu'il est moins performant mais les circons-

tances d'utilisation de tels réseaux le rendent inapproprié et déprécient ses performances.

Cette conclusion nous oblige à parier sur un autre type d'algorithmes d'apprentissage, à

savoir l'apprentissage enligne a�n de réagir en temps réel aux changement qui caractérisent

les systèmes non linéaires.

L'application de l'algorithme ABC-PP a été le sujet d'une communication internatio-

nale WCCS14.

snpredi = snbi + ρ(1− ccmax

)

snic+1 = snic + µρe−|dm|(snimax − snimin)

115

Page 133: Approches de l'intelligence artificielle pour la commande

Chapitre 5

Apprentissage en ligne des réseaux de

neurones RBF par l'approche

GAP-EKF

1 Introduction

Plusieurs techniques ont été développées pour l'apprentissage des réseaux RBF. Néan-

moins, ces approches sou�rent d'un problème pénalisant où il faut avoir la totalité de la

base d'apprentissage, qui est chose di�cile voir impossible dans la réalité.

Avec cette contrainte, le réseau de neurones obtenu ne pourra pas réagir aux change-

ments dûs à une variation du comportement du système ou un bruit de mesure. Dans ce

cas, nous serons alors obligés de réapprendre de nouveau le réseau de neurones.

L'apprentissage en ligne apparait comme une bonne alternative pour combler ces in-

su�sances. L'idée dans ce type d'algorithmes est de modi�er les paramètres du réseau

RBF à fur et à mesure que des couples entrées-sorties sont reçus (Haykin, 1999). Parmi

les algorithme d'apprentissage en ligne les plus utilisés nous trouverons l'approche RAN

(Resource Allocation Network) et son extension RANEKF (RAN extended Kalman Filter)

proposée par (Kadirkamanathan and Niranjan, 1993) où un �ltre de Kalman est utilisé

pour ajuster les paramètres des neurones.

MRAN, l'amélioration de l'algorithme RAN, permet de combiner les critères de crois-

sance RAN avec une stratégie d'élagage pour obtenir une structure minimale du réseau,

mais cet algorithme a une grande complexité de calcul (Li et al., 2000).

Dans ce chapitre, nous présenterons un nouvel algorithme d'apprentissage séquentiel

(online) basé sur la modi�cation des paramètres du réseau par un �ltre de Kalman étendu

à chaque présentation de nouveaux couples de données Entrées/Sorties. une autre carac-

téristique de cet algorithme est qu'il utilise une approche Growing and Pruning (GAP)

pour calculer le nombre de neurones nécessaires pour chaque couple de données (Salah-

116

Page 134: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

shoor and Jafari, 2007). En e�et, le réseau commence avec zéro neurones et à fur et à

mesures que les données sont présentées, le nombre de neurones s'accroit ou diminue selon

la complexité et le besoin.

La particularité de l'algorithme GAP-EKF est que les calculs sont faites par rapport

au neurone le plus proche contrairement aux algorithmes MRAN et RAN où la totalité

des neurone sont concernés.

L'algorithme GAP-EKF est utilisé pour l'apprentissage enligne d'un où plusieurs ré-

seaux de neurones RBF destinés à l'approximation des paramètres du système non linéaire

pendule inversé a�n de palier aux problèmes de la commande sliding mode à savoir la dé-

pendance du modèle et la connaissance à priori de ses paramètres.

Pour améliorer les performances de la commande sliding mode, nous avons utilisé un

contrôleur �ou pour calculer le gain K de la partie corrective et ainsi éliminer l'autre

limitation de la commande, le phénomène de chattering.

2 Approche GAP-EKF pour l'apprentissage des réseaux

de neurones RBF

L'approche GAP-EKF proposée par (Huang et al., 2004) est une approche destinée

à l'apprentissage en ligne des réseaux RBF, où des échantillons d'apprentissage (xi, yi)

,i = 1, 2, . . . ,m, sont présentés un par un à l'entrée du réseau RBF de N neurones cachés.

xi est un vecteur d'entrées de taille Nx et le vecteur de sortie yi est de taille Ny. La sortie

du réseau pour l'entrée xi est donnée par l'équation (5.1) :

yi =N∑j=1

akj exp[−‖xi − µj‖2 /2σ2

j

]+ ako. (5.1)

Les paramètres du réseau (poids, centres et largeurs des fonctions gaussiennes) sont dé�nis

par le vecteur w :

w = [a, µ, σ] =[a1 . . . aN∗Ny ;µ1...µN∗Nx ;σ1...σN

](5.2)

GAP-EKF est une approche basée sur l'allocation des ressources où le nombre des neu-

rones cachésN est égal à 0 au début et au besoin, ce nombre est incrémenté ou décrémenté.

Le processus d'apprentissage de GAP-EKF implique l'attribution de nouveaux neu-

rones cachés ainsi que l'adaptation des paramètres du réseau par un �ltre de Kalman

étendu (EKF).

Le déroulement de l'algorithme est résumé dans la Figure 5.1 (Huang et al., 2005).

117

Page 135: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

2.1 In�uence d'un neurone

La sortie du réseau est calculée à partir de la sommation des sorties des neurones de

la couche cachée. Ces neurones ne participent pas au même degrés dans le résultat. L'idée

est d'alléger le réseau en supprimant le neurone dont la participation est insigni�ante.

Pour cela, une nouvelle mesure de l'importance des neurones est introduite, l'in�uence

du neurone k peut être quanti�ée comme suit (Salem and Khel�, 2014d) :

Infk =

∥∥∥∥∥∥∥∥∥1.8σNxk ak

N∑j=1

(1.8σj)Nx

∥∥∥∥∥∥∥∥∥ . (5.3)

2.2 Critère de croissance (Growing Criterion)

Le réseau RBF commence seulement avec le biais et sans neurones cachés. Comme

les observations sont reçues au cours de l'application, certaines d'elles peuvent nécessiter

l'ajout d'un nouveau neurone (Growing). La décision d'ajouter un neurone caché pour

approximer une observation (xi, yi) est prise si le critère des équations (5.4) et (5.5) est

satisfait (Rong et al., 2006) :

‖xi − µir‖ > εg1. (5.4)

‖ei‖(1.8κ ‖xi − µir‖)Nx

N+1∑j=1

(1.8σj)Nx

> εg2. (5.5)

où ei est l'erreur entre la sortie du réseau yi et la sortie désirée yi. Elle est dé�nit par

l'équation (5.6) :

ei = yi − yi. (5.6)

Le vecteur µir contient les centres du neurone le plus proche de l'entrée courante xi. εg1, εg2sont des seuils à dé�nir pour chaque problème.

L'équation (5.4) véri�e si l'entrée courante xi est assez loin de tous les centres des neu-

rones existants de telle façon qu'ils ne peuvent pas réagir à cette entrée tandis que l'équa-

tion (5.5) véri�e si le nouveau neurone à ajouter N + 1 soit su�samment in�uent pour

être ajouté.

Les paramètres du nouveau neurone sont décrits dans l'équation (5.7) (Huang et al.,

2005) de telle sorte que les centres du nouveau neurone correspondent à l'entrée xi et les

poids reliant le neurone ajouté aux sorties sont données par le vecteur ei.aN+1 = ei

µN+1 = xi

σN+1 = κ ‖xi − µir‖(5.7)

118

Page 136: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

où κ est un facteur qui détermine le degré de chevauchement des neurones cachés dans

l'espace d'entrée (Huang et al., 2005).

Quand une observation (xi; yi) ne véri�e pas les critères de l'ajout, aucun neurone caché

n'est ajouté, et les paramètres ai, σi et µi du réseau sont ajustés en utilisant l'algorithme

EKF.

Initialiser les paramètres du GAP-EKF N = 0

Entrer (xi, yi)

Calculer yi

Calculer l'in�uence Infk

Critère d'ajout ?

Calculer les paramètres

du nouveau neurone

N ← N + 1

Ajuster les para-

mètres du neurone le

plus proche par EKF

Critère de sup-

pression ?

Supprimer neurone

N ← N − 1

Recalculer yi

Autres données ?

Fin

Oui Non

Oui

Non

Non

Oui

Figure 5.1: Organigramme de l'algorithme GAP-EKF.

119

Page 137: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

2.3 Ajustement des paramètres du réseau par l'algorithme EKF

Si les critères dans l'équation (5.4) et équation (5.5) ne sont pas véri�és, l'algorithme

GAP-EKF procède à la modi�cation des paramètres du neurone le plus proche wri de

l'entrée actuelle xi par un �ltre de Kalman étendu (EKF) (Li et al., 2000) :

wri = wri−1 +Kiei. (5.8)

Le vecteur wri contient les poids, centres et la largeur du neurone le plus proche comme

le montre l'équation (5.9). (Huang et al., 2005) :

wr = [ar, µr, σr] . (5.9)

Ki est la matrice des gains de Kalman calculée pour chaque entrée/ sortie :

Ki = Pi−1Bi[Ri +BTi Pi−1Bi]

−1. (5.10)

Bi = ∇wy est la matrice du gradient pour la fonction reliant les entrées aux sorties y. Ri

est la variance du bruit des mesures. Pi est la matrice de covariance de l'erreur dé�nit

dans l'équation (5.11) (Huang et al., 2005) :

Pi = [Iz∗z −KiBTi Bi]Pi−1 + q0Iz∗z. (5.11)

q0 est un scalaire pour déterminer le pas dans la direction de la matrice du gradient. Si le

nombre des paramètres à ajuster est z alors Pi est une matrice symétrique dé�nie positive

de dimension z × z.Quand un nouveau neurone est ajouté, la matrice Pi est modi�ée par l'équation (5.12)

(Huang et al., 2005) :

Pi =

(Pi−1 0

0 q0Ig∗g

). (5.12)

I est la matrice d'identité.

les nouvelles lignes et colonnes sont initialisées par q0(une estimation initiale de l'in-

certitude). g = Nx + Ny + 1 est le nombre des paramètres introduits avec le nouveau

neurone (Salem and Khel�, 2014d).

2.4 Critère d'élagage (Pruning Criterion)

A chaque présentation de couple de données, l'algorithme procède à l'élagage du réseau.

Si l'in�uence du neurone k donnée par l'équation (5.13) est inférieure au seuil d'élagage

εp, ce neurone est insigni�ant et va être supprimé et le nombre des neurones du réseau

120

Page 138: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

devient N − 1 (Zhang, 2005).

‖aj‖(1.8σj)

Nx

N∑j=1

(1.8σj)Nx

< εp. (5.13)

3 Approche GAP-EKF-Floue pour la commande sli-

ding mode des systèmes non linéaires

Dans cette section, une architecture fondée sur l'intelligence computationelle est pro-

posée pour la commande sliding mode des systèmes non linéaires. Cette architecture est

basée sur l'utilisation des réseaux de neurones RBF (avec apprentissage en ligne par

GAP-EKF) dans l'approximation des paramètres du système commandé dans la com-

mande équivalente et de réduire l'e�et du chattering en calculant le gain K à fur et à

mesure pour la commande corrective en utilisant un contrôleur �ou (Salem and Khel�,

2014d).

Le schéma global de cette approche est donné dans la Figure 5.2

yd(t) Commande

équivalente

e(t) ∑RBF

GAP-EKF

s = e+ λe

ss

ue(t)+

uc(t)

+

Système

x(t)f(x), g(x)

u(t) y(t)

Figure 5.2: Approche GAP-EKF-Floue dans la commande sliding mode.

3.1 Commande Équivalente RBF-GAP-EKF

Les systèmes non linéaires sont souvent sujets aux variations des paramètres et incer-

titudes dans leur modèle ce qui in�ue sur les performances de la commande sliding mode

(Salem and Khel�, 2014d).

Un réseau de neurone RBF est utilisé pour remédier à ce problème en estimant en ligne

les paramètres du modèle et réagir en temps réel aux changements dûs à l'environnement

(frottement, bruit, ...).

Le réseau proposé a comme entrée le vecteur d'état x et deux sorties, les deux fonctions

non linéaires du système : f(x) et g(x).

121

Page 139: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

La sortie du réseau est donnée par l'équation (5.14)

f(x) = a1TΦ(x)

g(x) = a2TΦ(x). (5.14)

où Φ(x) est le vecteur des sorties des neurones cachés, a1 et a2 sont les vecteurs corres-

pondants aux deux sorties (Salem and Khel�, 2014d).

La commande équivalente de l'équation (1.31) devient :

ue(t) =1

g(x)

[−f(x) + xd − λx+ λxd

](5.15)

L'apprentissage par l'algorithme GAP-EKF et l'exploitation du réseau RBF sont est réa-

lisé en ligne pendant la commande du système non linéaire (Salem and Khel�, 2011).

3.2 Commande Corrective �oue

Le rôle de la partie corrective de la commande sliding mode est de garder le système

sur la surface de glissement s en utilisant un gain K, cette commande est donnée par

l'équation (5.16) (Salem and Khel�, 2014d).

uc(t) = −Ksign(s) (5.16)

Pour garder le système sur la surface, il faut choisir des valeurs deK su�samment grandes

mais dans le même temps, ces grandes valeurs causeront des oscillations à hautes fré-

quences sur les deux cotés de la surface de glissement. Ce phénomène de chattering peut

endommager le système.

Au lieu de �xer une valeur constante pour K au début de la procédure de commande, nous

proposons d'utiliser un contrôleur �ou pour calculer ce gain. L'avantage de l'utilisation

d'un contrôleur �ou est que le gain commence avec une valeur élevée lorsque le système

est loin de la surface, cette valeur s'adaptera en fonction de la distance entre le système

et la surface (Salem and Khel�, 2014d).

3.2.1 Entrées du contrôleur �ou

Les variables d'entrée du contrôleur sont la surface s et sa dérivée s.

Les variables linguistiques de l'entrée s sont (Salem and Khel�, 2014d) :

� NS : Negative Small

� ZE : Zero

� PS : Positive Small

122

Page 140: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

Les variables linguistiques de l'entrée s sont (Salem and Khel�, 2014d) :

� N : Negative

� Z : Zero

� P : Positive

Les fonctions d'appartenance des variables d'entrée s et s sont représentées dans la Fi-

gure 5.3 et la Figure 5.4.

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

0

0.2

0.4

0.6

0.8

1 ZENS PS

s

Degrésd'appartenance

Figure 5.3: Fonctions d'appartenance de la variable d'entrée s

−5 −4 −3 −2 −1 0 1 2 3 4 5

0

0.2

0.4

0.6

0.8

1 N Z P

s

Degrésd'appartenance

Figure 5.4: Fonctions d'appartenance de la variable d'entrée s

3.2.2 Sortie du contrôleur �ou

Le contrôleur �ou est de type Mamdani avec une seule sortie, le gain K. Ses variables

linguistiques sont :

� KS : K Small

� KM : K Moyen

123

Page 141: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

� KB : K Big

La fonction d'appartenance de K est représentée dans la Figure 5.5.

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0

0.2

0.4

0.6

0.8

1 KS KM KB

K

Degrésd'appartenance

Figure 5.5: Fonctions d'appartenance de la variable de sortie K

3.2.3 Système d'inférence

Les règles utilisées pour le calcul du gain sont représentées dans la Table 5.1 et une

représentation graphique des surfaces occupées est illustrée dans la Figure 5.6 (Salem and

Khel�, 2014d).

Table 5.1: Règles du contrôleur �ou

@@@

@@s

sNS ZE PS

N KM KM KS

Z KM KS KM

P KB KM KB

124

Page 142: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

−1 −0.8−0.6−0.4−0.2 0 0.2 0.4 0.6 0.8 1

−4−2

02

4

2

4

ss

K

Figure 5.6: Surface de la sortie du contrôleur �ou K

4 Résultats des simulations

4.1 Application au pendule inversé

L'approche proposée a été utilisée pour la commande sliding mode du pendule inversé

simple donné en Annexe, Section 2.

La commande sliding mode pour un pendule inversé est donnée par l'équation (5.17) (Sa-

lem and Khel�, 2014d).

ue =1

g(θ, θ)

[−f(θ, θ) + θd − λθ + λθd

]−Ksign(s). (5.17)

L'objectif est de poursuivre la trajectoire sinusoïdale donnée en équation (5.18) (Salem

and Khel�, 2014d).

θd = 0.2sin(π

2t) (5.18)

θd et θd sont les vitesses et accélérations désirées. L'équation (5.19) représente les per-

turbations externes additionnées au système pour tester la robustesse de la commande

utilisée. Nous avons aussi simuler une variation de la masse du pendule en ajoutant une

quantité ∆m = 0.01Kg au milieu de chaque seconde (Salem and Khel�, 2014d).

d(t) = 10−3sin(t) (5.19)

Un réseau RBF avec un apprentissage GAP-EKF a été utilisé pour calculer les fonctions

f(θ, θ) et g(θ, θ), les estimations des fonctions f(θ, θ) et g(θ, θ). Dans le même temps, le

gain K est calculé par un contrôleur �ou.

La commande du pendule se déroule pendant 10s et à chaque pas d'échantillonnage

du simulateur, l'erreur entre la sortie désirée et réelle est calculée.

Pour éviter des calculs inutiles, l'algorithme GAP-EKF n'est exécuté que si cette erreur

125

Page 143: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

dépasse un seuil acceptable �xé à l'avance ε1 = 0.001 (Salem and Khel�, 2014d).

Les paramètres de la commande sliding mode par l'approche GAP-RBF-Floue sont

présentés dans la Table 5.2 (Salem and Khel�, 2014d).

Table 5.2: Paramètres de l'algorithme d'apprentissage GAP-EKF

Paramétrer Valeur

Entrées θ, θ

Sorties f(θ, θ) et g(θ, θ)

Seuil d'ajout εg1 1.0e− 5

Seuil d'ajout εg2 1.0e− 5

Facteur de chevauchement κ 15

Seuil de suppression εp 1.0e− 5

q0 1.5

L'allure de la trajectoire désirée ainsi que la position réelle du pendule sont montrées

dans la Figure 5.7 et l'erreur de poursuite est dans la Figure 5.8.

L'erreur obtenue est très acceptable et le pendule converge rapidement vers la trajectoire

désirée avec un temps de réponse inférieur à 0.2s malgré l'existence d'un bruit externe et

une altération des paramètres du modèle.

Ces résultats sont obtenus à cause de la puissance de l'algorithme d'apprentissage en ligne

GAP-EKF d'où l'estimation des fonctions f(θ, θ) et g(θ, θ) avec une erreur à l'ordre de

1e− 03 et 1e− 06 respectivement (cf. Figure 5.9 et Figure 5.10).

Les pics remarqués chaque deux secondes sur les deux �gures montrent l'adaptation

de l'algorithme au changements introduits.

L'évolution du nombre des neurones du réseau RBF durant la procédure de la com-

mande est illustrée dans la Figure 5.11. Dans la �gure, l'algorithme commence avec zéro

neurones. L'algorithme a ajouté un nouveau neurone à 0.2s et un autre à 0.4s. Après le

pas suivant, le critère d'élagage est véri�é et le neurone le moins signi�ant est supprimé.

Les entrées suivantes ont nécessité l'ajout d'un nouveau neurone et le réseau continue

de fonctionner avec 2 neurones seulement en modi�ant les paramètres avec le �ltre de

Kalman jusqu'à 3.4s où le critère d'ajout a été véri�é et un autre neurone a été ajouté.

A la �n du procédure de la commande, le réseau a 13 neurones.

Le signal de commande agissant sur le chariot est représenté dans la Figure 5.12. Nous

pouvons remarquer clairement l'absence des oscillations à hautes fréquences (Chattering)

contrairement aux résultats du chapitre 4. Ceci est dû au contrôleur �ou dont la sortie est

représentée sur la Figure 5.13. Le gain commence avec une valeur de K = 5 et diminue

au cours de la procédure de commande pour suivre une forme sinusoïdale pour satisfaire

la trajectoire désirée.

126

Page 144: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

0 1 2 3 4 5 6 7 8 9 10−0.3

−0.2

−0.1

0

0.1

0.2

0.3

0.4

Temps(s)

Pos

ition

ang

ulai

re (R

ad)

Position désirée

Position réelle

Figure 5.7: Positions désirée et réelle du pendule inversé par GAP-EKF-Floue

0 1 2 3 4 5 6 7 8 9 10

0

5 · 10−2

0.1

Temps(s)

Erreurangulaire(R

ad)

Figure 5.8: Erreur de poursuite de la position angulaire par GAP-EKF-Floue

0 1 2 3 4 5 6 7 8 9 10

−2

−1

0

1·10−3

Temps(s)

Erreurd'estimationf(x)

Figure 5.9: Erreur d'estimation de la fonction f(θ, θ) par GAP-EKF-Floue

127

Page 145: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

0 1 2 3 4 5 6 7 8 9 10−8

−6

−4

−2

0

2·10−6

Temps(s)

Erreurd'estimationde

g(x)

Figure 5.10: Erreur d'estimation de la fonction g(θ, θ) par GAP-EKF-Floue

0 1 2 3 4 5 6 7 8 9 100

5

10

Temps(s)

Nom

brede

neurones

Figure 5.11: Évolution du nombre des neurones du réseau RBF

0 1 2 3 4 5 6 7 8 9 10−60

−40

−20

0

20

Temps(s)

Signaalde

commande

Figure 5.12: Signal de commande pour le pendule inversé par GAP-EKF-Floue

128

Page 146: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

0 1 2 3 4 5 6 7 8 9 10

0

1

2

3

4

Temps(s)

valeur

dugain

�ouK

Figure 5.13: Valeurs du gains K, pendule inversé avec GAP-EKF-Floue

4.2 Application au robot manipulateur SCARA

Une deuxième application de l'approche proposée GAP-EKF-Floue est dans la com-

mande d'un robot manipulateur SCARA de trois degrés de liberté dont le modèle est

donné en Équation (5.20) (Ak and Cansever, 2006b) :

M(q)q + C(q, q)q +G(q) + F (q) = Γ. (5.20)

où M(q), C(q, q) sont les matrices d'inertie et des Forces de Coriolis et Centrifuges res-

pectivement. G(q) est le vecteur de gravité , F (q) est le vecteur des frottement et Γ est le

vecteur des couples agissants sur les articulations. q, q et q sont les vecteurs des positions,

vitesses et accélérations angulaires. Les valeurs de ces matrices pour le robot SCARA sont

présentés en Annexe.

La commande sliding mode d'un robot manipulateur est donnée par l'équation (5.21)

(Slotine and Li, 1991) :

Γ = Γeq + Γcc. (5.21)

où la commande équivalente Γeq est donnée par :

Γeq = M(q)qr + C(q, q)qr + G(q) + F (q). (5.22)

où :

qr = qd − λe, qr = qd − λe. (5.23)

avec qd, la trajectoire à suivre est représentée dans l'équation (5.24) :

qd = 1 + sin(πt). (5.24)

129

Page 147: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

et la surface de glissement est dé�nit par l'équation (5.25) :

s = e+ λe. (5.25)

La partie corrective est sous la forme :

Γcc = −Ksign(s). (5.26)

M, C, G, F sont des estimations deM,C,G et F respectivement (Slotine and Li, 1991).

K = diag [K1, K2 . . . Kn] est une matrice diagonale dé�nie positive.

Nous avons appliqué l'approche GAP-RBF-Floue pour la commande sliding mode du ro-

bot manipulateur donné en équation (5.20), pour cela, nous avons utilisé un réseau RBF

pour estimer la matrice M , un autre pour estimer la matrice C et un troisième pour le

vecteur de frottement F . Les paramètres du vecteur de gravité G sont constantes (cf.

Équation (A.8).

Pour tester la robustesse de la commande, le frottement de l'équation (A.10) a été

considéré ainsi qu'une incertitude dans la masse de la deuxième articulation m2 avec

∆m2 = 0.001Kg.

Les paramètres de la commande sliding mode GAP-RBF-Floue sont présentés dans la

Table 5.3.

Les erreurs d'estimation des trois matrices sont illustrées dans la Figure 5.14, Fi-

gure 5.15 et Figure 5.16 tandis que Figure 5.17 et Figure 5.18 représentent les positions

des articulations et les erreurs de poursuite respectivement.

Les trois réseaux RBF ont approximé les trois composantes du modèle dynamique avec

exactitude produisant une erreur d'estimation inférieure à 1e − 6 et il est clair que les

articulations convergent vers la trajectoire désirée avec une erreur statique presque nulle

malgré les perturbations externes et les incertitudes dans le modèle.

Les couples agissants sur les trois articulations sont représentés dans la Figure 5.19 et la

sortie du contrôleur �ou est dans la Figure 5.20. Le phénomène du chattering est complè-

tement éliminé comme le montre la Figure 5.19 à cause de la bonne estimation du modèle

et l'in�uence du contrôleur �ou qui calcule à chaque instant le gain adéquat.

Pour montrer l'e�cacité de l'algorithme d'apprentissage, nous avons résumé les moyennes

des erreurs d'apprentissage pour les trois réseaux et ceci chaque deux secondes. Les résul-

tats sont présentés dans la Table 5.4.

Nous pouvons remarquer que les 3 réseaux vont apprendre le modèle à fur et à mesure

que le temps d'utilisation des réseaux passe. En e�et, pour chaque donnée en plus, l'ar-

chitecture des réseaux s'améliore et leurs performances augmentent.

130

Page 148: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

Table 5.3: Paramètres de l'algorithme d'apprentissage GAP-EKF pour les 3 réseauxRBFM, RBFC et RBFF

Paramètre RBFM RBFC RBFF

Entrées q q, q q

Nombre des entrées 3 9 3

Sorties M C F

Nombre des sorties 3 3 3

Seuil d'ajout εg1 1.0e− 6 1.0e− 6 1.0e− 5

Seuil d'ajout εg2 1.0e− 5 1.0e− 5 1.0e− 5

Facteur de chevauchement κ 15 10 15

Seuil de suppression εp 1.0e− 5 1.0e− 5 1.0e− 5

q0 1.5 0.9 1.1

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−2

0

2

4

6

8·10−5

M(1,1)M(1,2)M(2,2)

Figure 5.14: Erreur d'estimation de la matrice M par GAP-EKF-Flou

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−1.5

−1

−0.5

0

0.5

1·10−6

C(1,1)C(1,2)C(2;2)

Figure 5.15: Erreur d'estimation de la matrice C par GAP-EKF-Flou

131

Page 149: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−1

−0.5

0

0.5

1·10−13

F(1)F(2)F(3)

Figure 5.16: Erreur d'estimation du vecteur du frottement F par GAP-EKF-Flou

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0

0.5

1

Temps(s)

Positions

(Rad)

ConsigneArticulation 1Articulation 2Articulation 3

Figure 5.17: Positions des 3 articulations par GAP-EKF-Floue

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

−1

−0.5

0

Temps(s)

Erreur(rad)

Articulation 1Articulation 2Articulation 3

Figure 5.18: Erreurs de poursuite des 3 articulations par GAP-EKF-Floue

5 Conclusion

Dans ce chapitre, nous avons présenté un algorithme d'apprentissage en ligne des

réseaux de neurones RBF pour l'approximation des fonctions du modèle d'un système

non linéaire.

132

Page 150: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0

200

400

600

Temps(s)

Sgnalde

commande

Articulation 1Articulation 2Articulation 3

Figure 5.19: Signaux de commande des 3 articulations par GAP-EKF-Floue

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−600

−400

−200

0

Temps (s)

Gains

K

Articulation 1Articulation 2Articulation 3

Figure 5.20: Sorties du contrôleurs �ous (gains K) par GAP-EKF-Floue

Table 5.4: Erreurs d'estimation des 3 réseaux RBF par GAP-EKF.

Secondes Sans bruit Avec bruitRBFM RBFC RBFF RBFM RBFC RBFF

1-2 5.41e-6 4.53e-7 1.16e-16 2.62e-5 9.21e-6 3.88e-153-4 6.27e-8 4.45e-8 2.22e-17 3.54e-7 6.55e-8 3.29e-165-6 2.49e-8 7.92e-8 8.88e-17 4.02e-7 8.22e-8 1.24e-167-8 1.56e-8 3.33e-8 3.05e-17 8.23e-7 5.36e-8 5.86e-169-10 2.85e-8 9.74e-8 8.72e-17 5.14e-7 1.94e-8 2.11e-16

133

Page 151: Approches de l'intelligence artificielle pour la commande

Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF

L'approche GAP-EKF est basée sur deux stratégies, Growing and pruning (GAP) pour

ajouter ou supprimer des neurones, et un �ltre de Kalman étendu (EKF) pour modi�er

les paramètres du réseau (poids, centres et largeurs).

L'algorithme en question commence avec un réseau vide (avec 0 neurones) et tente

de construire l'architecture du réseau à fur et à mesure que les couples entrées/sorties

seront présentées. Il procède soit en modi�ant les paramètres (poids, centres et largeur)

du neurone le plus proche de l'entrée présentée si celle-ci est assez proche. Sinon il ajoute

un nouveau neurone pour pouvoir réagir à la nouvelle entrée.

Après chaque présentation de couples, l'algorithme élague le réseau en supprimant le

neurone le moins signi�ant pour empêcher le réseau de s'accroitre exponentiellement et

ainsi réduire le temps de calcul.

L'algorithme d'apprentissage a été utilisé dans une approche de commande sliding

mode à base de l'intelligence computationnelle (approche GAP-EKF-Flou) pour palier

aux limites de la commande sliding mode citées dans le Chapitre 1, section � 6.2.3, elle

est constituée de :

1- Un réseau de neurones RBF avec l'algorithme d'apprentissage GAP-EKF pour

estimer en ligne les paramètres du système non linéaire et ainsi annuler l'in�uence des

incertitudes et bruits externes.

2- Un contrôleur �ou pour calculer le gain de la commande corrective et l'adapter aux

circonstances de la commande ce qui élimine le chattering.

L'approche a été appliquée sur un pendule inversé et un robot manipulateur de type

SCARA en donnant des résultats acceptables même en présence des bruits et incertitudes.

Les résultats obtenus dans ce chapitre ont donné lieu à une communication et une

publication internationales, en l'occurrence :

• CCCA11 pour la conception de l'approche sliding mode GAP-EKF basée sur les

réseaux RBF avec un apprentissage en ligne avec l'algorithme GAP-EKF et son

application sur un pendule inversé.

• IJISA14a pour l'amélioration de l'approche précédente en ajoutant un contrôleur

�ou en parallèle et en augmentant le degré de complexité du système utilisé (robot

manipulateur (SCARA).

134

Page 152: Approches de l'intelligence artificielle pour la commande

Conclusion générale

La commande sliding mode est une commande robuste largement utilisée dans l'in-

dustrie pour commander les systèmes non linéaires. Ces systèmes présentent souvent des

incertitudes dans leurs modèles.

La commande sliding mode est composée de deux parties, la commande équivalente

utilise le modèle dynamique du système pour le ramener vers une surface de glissement,

et la commande corrective (commutative) pour garder le système sur la surface.

La commande sliding mode sou�re de deux limitations majeures, la dépendance du

modèle dynamique et le phénomène des oscillations à hautes fréquences (chattering).

Les techniques de l'intelligence computationnelle constituent des solutions possibles à

ces limites. Ces techniques comportent les réseaux de neurones, la logique �oue et les

algorithmes évolutionnaires parmi d'autres.

La présente thèse a été dédiée à la résolution des limites de la commande sliding mode

par l'application des réseaux de neurones à fonctions à bases radiales (RBF) et la logique

�oue.

En e�et, les réseaux de neurones RBF par leurs qualités d'adaptation et d'approxi-

mation sont un outil performant pour estimer les paramètres du modèle du système com-

mandé. Ces performances dépendent essentiellement de la qualité de l'algorithme d'ap-

prentissage utilisé.

En premier lieu, nous avons essayé de développer un algorithme d'apprentissage hors

ligne en utilisant les algorithmes évolutionnaires.

L'espace de recherche des paramètres d'un réseau de neurones RBF (poids, centres et

largeurs) est vaste et limité seulement par la capacité de calcul, ceci conduit forcement

l'algorithme d'apprentissage à être piégé dans un ou plusieurs minima locaux. Ayant cela

comme problématique secondaire, nous avons amélioré deux algorithmes d'optimisation

a�n d'accroître leurs e�et de diversi�cation : la colonie d'abeilles arti�cielles (ABC) et

l'optimisation basée sur la biogéographie (BBO). L'idée était de les hybrider avec le modèle

prédateur et proies amélioré.

Les algorithmes obtenus (PMBBO et ABC-PP) ont été validés par une analyse statis-

tique via des tests non-paramétriques et comparés pour choisir le meilleur entre eux a�n

de s'en servir pour l'apprentissage des réseaux de neurones RBF.

Du fait que l'algorithme ABC-PP est sorti du lot en étant classé premier dans l'analyse

135

Page 153: Approches de l'intelligence artificielle pour la commande

Conclusion générale

statistique, il a été appliqué pour l'apprentissage hors ligne d'un réseau de neurones pour

estimer les paramètres d'un pendule inversé dans le cadre d'une commande sliding mode.

Les résultats obtenus sont satisfaisants mais lorsque la commande sliding mode utili-

sant le réseau RBF a été soumise à un test de robustesse en simulant des perturbations

externes et une altération du modèle, les résultats de la commande ont rapidement dété-

riorés.

La deuxième solution est d'avoir recours à un algorithme d'apprentissage en ligne,

dans ce contexte, nous avons présenté l'algorithme GAP-EKF qui est un algorithme en

ligne basé sur deux stratégies, une stratégie GAP (Growing And Pruning) et un �ltre de

Kalman étendu. Il procède à l'apprentissage d'un réseau en commençant avec 0 neurones

et il ne nécessite pas la disponibilité de la totalité de la base d'apprentissage. A chaque

couple entrée/sortie présenté, l'algorithme décide d'ajouter un nouveau neurone selon un

critère de distance, si ce critère n'est pas véri�é, les paramètres du réseau sont modi�és

par un �ltre de Kalman étendu.

L'algorithme GAP-EKF a été utilisé pour concevoir une approche de commande sliding

mode basée sur les techniques de l'intelligence computationnelle. L'approche GAP-EKF-

Floue est composée de deux parties :

1)- Un réseau de neurones RBF avec apprentissage en ligne (GAP-EKF) pour calculer

la commande équivalente en estimant en ligne les paramètres du modèle et compenser les

incertitudes et les variations du modèle.

2)- Un contrôleur �ou pour calculer la commande corrective a�n d'éliminer le phéno-

mène de chattering, ce contrôleur a comme entrées la surface et sa dérivée et sa sortie est

la valeur du gain. Nous avons étudié la robustesse de la commande sliding mode obtenue

sur un pendule inversé et ensuite sur un robot manipulateur de type SCARA. Les résul-

tats de simulation ont montré un comportement satisfaisant pour les deux systèmes en

présence de bruits et incertitudes.

Cette thèse a présenté trois nouveaux algorithmes, deux algorithmes d'optimisation et

un algorithme d'apprentissage en ligne.

• Les algorithmes PMBBO et ABC-PP sont de puissants algorithmes d'optimisation,

surtout ABC-PP qui a prouvé ses performances à travers des tests statistiques non

paramétriques et bien qu'il ait montré des limites dans notre problème (Application

des réseaux RBF pour la commande sliding mode des systèmes non linéaire), il a

donné de bons résultats dans d'autres problèmes d'optimisation et ses limites sont

surtout dues aux propriétés des systèmes non linéaires et non à l'algorithme lui-

même.

L'algorithme ABC-PP pourrait bien être utilisé pour l'optimisation du contrôleur

�ou à savoir, le nombre et les paramètres des fonctions d'appartenance des variables

�oues.

• L'algorithme GAP-EKF qui est un algorithme d'apprentissage en ligne des réseaux

136

Page 154: Approches de l'intelligence artificielle pour la commande

Conclusion générale

de neurones RBF, cet algorithme est caractérisé par :

1. La notion d'in�uence d'un neurone a un rôle important dans la sélection du

neurone à ajouter ou supprimer, elle permet de réduire la complexité de calcul

pour le rendre plus simple.

2. Quand aucun neurone caché n'est ajouté, seuls les paramètres du plus proche

neurone doivent être ajustés, ce qui réduit le temps de calcul global et rend

l'apprentissage plus rapide, Cette dernière à un grand avantage dans les appli-

cations où un grand nombre de neurones cachés est nécessaire.

3. Le réseau RBF commence par un nombre de neurone nul, ceci nous évite de

résoudre un autre problème dans l'apprentissage des réseaux de neurones RBF

où le nombre des neurones cachés doit être déterminé empiriquement ce qui

in�ue sur les performances de n'importe quel algorithme d'apprentissage.

4. L'idée d'ajouter et supprimer des neurones selon le besoin réduit vraisemblable-

ment le temps de calcul surtout dans la phase de modi�cation des paramètres

par le �ltre de Kalman étendu (EKF) où des matrices de grandes dimensions

sont manipulées.

L'algorithme GAP-EKF est utile pour les applications nécessitant des estimations

en temps réel, il su�t juste de �xer ses paramètres.

Nous pouvons résumer les résultats obtenus dans cette thèse par les productions sui-

vantes :

137

Page 155: Approches de l'intelligence artificielle pour la commande

Conclusion générale

Figure 5.21: Résumé des contributions

138

Page 156: Approches de l'intelligence artificielle pour la commande

Bibliographie

Abraham, A. (2001). Neuro fuzzy systems : State-of-the-art modeling techniques. Master's

thesis, School of Computing & Information Technology, University Monash, Australia.

Ak, A. G. and Cansever, G. (2006a). Adaptive neural network based fuzzy sliding mode

control of robot manipulator. In IEEE Conference on Cybernetics and Intelligent Sys-

tems, volume 144, pages 1�6, Bangkok.

Ak, A. G. and Cansever, G. (2006b). Fuzzy sliding mode controlller with RBF networks

for robotic manipulator trajectory tracking. Lecture notes in control and information

sciences (Intelligent Control and Automation ), 144 :527�532.

Belew, R., McInerney, J., and Schraudolph, N. (1991). Evolving networks : Using the ge-

netic algorithm with connectionist learning. In Proc. Second Arti�cial Life Conference,

pages 511�547, New York.

Berbaoui, B., Benachaiba, C., Rahli, M., and Tedjini, H. (2011). An e�cient algorithm

to tuning PI-controller parameters for shunt active power �lter using ant colony opti-

mization. PRZEGLAD ELEKTROTECHNICZNY (Electrical Review), 6 :140�145.

Beyhan, S. and Alci, M. (2009). A new rbf network based sliding-mode control of nonli-

near systems. In International Multiconference on Computer Science and Information

Technology, pages 11�16.

Cantú-Paz, E. and Kamath, C. (2005). An empirical comparison of combinations of evolu-

tionary algorithms and neural networks for classi�cation problems. IEEE Transactions

on Systems Man and Cybernetics Part B (Cybernetics), 35(5) :915�927.

Cara�ni, F., Neri, F., Cheng, J., Zhang, G., Picinali, L., Iacca, G., and Mininno, E.

(2013). Super-�t multicriteria adaptive di�erential evolution. In IEEE Congress on

Evolutionary Computation, CEC 2013, pages 1678�1685, Cancun, Mexico.

Castro, L. D. and von Zuben, F. (2001). An immunological approach to initialize centers

of radial basis function neural networks. In Proceedings of Brazilian Conference on

Neural Networks, pages 79�84, Rio de Janeiro, Brazil.

139

Page 157: Approches de l'intelligence artificielle pour la commande

Bibliographie

Caudell, T. P. and Dolan, C. P. (1989). Parametric connectivity : Training of constrained

networks using genetic algorithms. In Proceedings of the 3rd International Conference

on Genetic Algorithms, pages 370�374.

Chen, C. S. and Chen, W. L. (1998). Robust adaptive sliding-mode control using fuzzy

modeling for an inverted-pendulum system. IEEE Transaction on Industrial Electro-

nics, 45 :297�306.

Chen, H. and Wo, S. (2013). Rbf neural network of sliding mode control for time-varying

2-dof parallel manipulator system. Mathematical Problems in Engineering, 2013 :1�10.

Choi, S. B. and Kim, M. S. (1997). New discrete time fuzzy sliding mode control with

application to smart structures. Journal of Guidance Control and Dynamics, 20(5) :857�

864.

Conover, W. (1999). Practical nonparametric statistics. John Wiley & Sons, New York.

Crepinsek, M., Liu, S.-H., and Mernik, M. (2013). Exploration and exploitation in evolu-

tionary algorithms : A survey. ACM Computing Surveys, 45(3) :35 :1�33.

Cybenko, G. (1989). Approximation by superposition of sigmoidale functions. Mathema-

tics of of Control Signal and Systems, 2 :303�314.

da Mota, J. F., Siqueira, P., de Souza, L., and Vitor, A. (2012). Training radial basis

function networks by genetic algorithms. In Proceedings of the 4th International Confe-

rence on Agents and Arti�cial Intelligence (ICAART 2012), pages 373�379, Vilamoura,

Algarve, Portugal.

Derrac, J., Garcia, S., Molina, D., and Herrera, F. (2011). A practical tutorial on the

use of nonparametric statistical tests as a methodology for comparing evolutionary and

swarm intelligence algorithms. Swarm and Evolutionary Computation, 1 :3�18.

Digalakis, J. G. and Margarits, K. G. (2000). On benchmarking functions for genetic

algorithms. International Journal of Computer Mathematics, 00 :1�27.

Doksum, K. (1967). Robust procedures for some linear models with one observation per

cell. Annals of Mathematical Statistics, 38 :878�883.

Dunn, O. (1961). Multiple comparisons among means. Journal of the American Statistical

Association, 56 :52�64.

Eberhart, R., Shi, Y., and Kennedy, J. (2001). Swarm Intelligence. Morgan Kaufmann.

Elsayed, S. M. M., Sarker, R., and Essam, D. L. (2013). A genetic algorithm for solving

the CEC2013 competition problems on real-parameter optimization. In IEEE Congress

on Evolutionary Computation, CEC 2013, pages 356�360, Cancun, Mexico.

140

Page 158: Approches de l'intelligence artificielle pour la commande

Bibliographie

Engelbrecht, A. (2003). Computational Intelligence : An Introduction. Wiley.

Erbatur, K., Kaynak, O., Sabanovic, A., and Rudas, I. (1996). Fuzzy adaptive sliding

mode control of a direct drive robot. Robotics and Autonomous Systems, 19(2) :215�

227.

Ertugrul, M. and Kaynak, O. (2000). Neuro sliding mode control of robotic manipulators.

Mechatronics, 10(1-2) :243�267.

Fateh, M., Ahmadi, S., and Khorashadizadeh, S. (2014). Adaptive rbf network control for

robot manipulators. Journal of AI and Data Mining, 2 :In print.

Fei, J. and Wang, Z. (2013). Adaptive neural sliding mode control of active power �lter.

Journal of Applied Mathematics, 2013 :1�8.

Finner, H. (1993). On a monotonicity problem in step-down multiple test procedures.

Journal of the American Statistical Association, 88 :920�923.

Friedman, M. (1937). The use of ranks to avoid the assumption of normality implicit in

the analysis of variance. Journal of the American Statistical Association, 32 :674�701.

Garcia, S., Fernández, A., Luengo, J., and Herrera, F. (2010). Advanced nonparametric

tests for multiple comparisons in the design of experiments in computational intelligence

and data mining : Experimental analysis of power. Information Sciences, 180 :2044�

2064.

Garcia, S., Molina, D., M.Lozano, and Herrera, F. (2009). A study on the use of non-

parametric tests for analyzing the evolutionary algorithms behaviour a case study on

the cec2005 special session on real parameter optimization. Journal of Heuristics, 15-

6 :617�644.

GirirajKumar, S., Jayaraj, D., and Kishan, A. (2010). PSO based tuning of a PID

controller for a high performance drilling machine. International Journal of Computer

Applications, 1(19) :12�18.

Gozde, H., Taplamacioglu, M. C., and Kocaarslan, I. (2010). Applications of arti�cial

bees colony algorithm in an automatic voltage regulator (AVR) system. International

Journal on Technical and Physical Problems of Engineering (IJTPE), 2(3) :88�92.

Ha, Q. P. (1996). Robust sliding mode controller with fuzzy tuning. Electron Letters,

32(17) :1626�1628.

Ha, Q. P. (1997). Sliding performance enhancement with fuzzy tuning. Electron Letters,

33(16) :1421�1423.

141

Page 159: Approches de l'intelligence artificielle pour la commande

Bibliographie

Hagan, T. M., Demuth, H., and Beale, M. (1995). Neural network design. Ed PWS

publishing company.

Hancock, P. (1992). Genetic algorithms and permutation problems : A comparison of

recombination operators for neural net structure speci�cation. In Proceedings of the

Third International Workshop on Combinations Genetic Algorithms Neural Networks,

pages 108�122.

Haykin, S. (1999). Neural Networks : A Comprehensive Foundation. Upper Saddle River,

N.J. Prentice Hall, 2nd edition edition.

Hochberg, Y. (1988). A sharper bonferroni procedure for multiple tests of signi�cance.

Biometrika, 75 :800�803.

Hodges, J. and Lehmann, E. (1962). Ranks methods for combination of independent

experiments in analysis of variance. Annals of Mathematical Statistics, 33 :482�497.

Hoerl, A. (1962). Application of ridge analysis to regression problems. Chemical Engi-

neering Progress, 58 :54�59.

Holland, M. (1987). An improved sequentially rejective bonferroni test procedure. Bio-

metrics, 43 :417�423.

Holm, S. (1979). A simple sequentially rejective multiple test procedure. Scandinavian

Journal of Statistics, 6 :65�70.

Hommel, G. (1988). A stagewise rejective multiple test procedure based on a modi�ed

bonferroni test. Biometrika, 75 :383�386.

Hornik, K. (1991). Approximation capabilities of multilayer feedforward networks. Neural

Networks, 4 :251�257.

Hu, S. and Lu, M. (2012). Neural fuzzy sliding mode control for a robot manipulator.

In International Conference on Mechanical Engineering and Automation Advances in

Biomedical Engineering.

Huang, G., Saratchandran, P., and Sundararajan, N. (2004). An e�cient sequential lear-

ning algorithm for growing and pruning RBF (GAP-RBF) networks. IEEE Transac-

tion on systems , Man , and Cybernitics Part B : Cybercnitics, 34(6) :2284�2292.

Huang, G., Saratchandran, P., and Sundararajan, N. (2005). A generalized growing and

pruning RBF (GGAP-RBF) neural network for function approximation. IEEE tran-

saction on Neural Networks, 16(1) :57�67.

Hwang, G. C. and Lin, S. C. (1992). A stability approach to fuzzy control design Fuzzy

Sets Systems, 48(3) :279�287.

142

Page 160: Approches de l'intelligence artificielle pour la commande

Bibliographie

Iman, R. L. and Davenport, J. M. (1980). Approximations of the critical region of the

friedman statistic. Communications in Statistics - Theory and Methods, 9(6) :871�595.

Jezernik, K., Rodic, M., Safaric, R., and Curk, B. (1997). Neural network sliding mode

robot control. Robotica, 15 :23�30.

Jiao, B. and Wang, L. (2010). Rbf neural network sliding mode control for variable-speed

adjustable-pitch system of wind turbine. In International Conference on Electrical and

Control Engineering,, pages 3998 � 4002, Wuhan, China.

Jog, P., Suh, J., and Gucht, G. (1991). Parallel genetic algorithms applied to the traveling

salesman problem. SIAM Journal on Optimization, 1(4) :515�529.

Johnson, M. A. and Moradi, M. H. (2005). PID Controllers :New Identi�cation and

Design Methods. Springer.

Kadirkamanathan, V. and Niranjan, M. (1993). A function estimation approach to se-

quential learning with neural networks. Neural Computation, 5 :954�975.

Karaboga, D. (2005). An idea based on honey bee swarm for numerical optimization.

Technical report tr06, Erciyes University, Engineering Faculty, Computer Engineering

Department.

Karaboga, D., Akay, B., and Ozturk, C. (2007). Arti�cial bee colony (ABC) optimization

algorithm for training feed-forward neural networks. Modeling Decisions for Arti�cial

Intelligence ( LNCS), 46(17) :318�329.

Karakasoglu, A. and Sundareshan, M. K. (1995). A recurrent neural networkbased adap-

tive variable structure model-following control of robotic manipulators. Automatica,

31(10) :1495�1507.

Kartalopoulos, S. V. (2004). Understanding Neural Networks and Fuzzy Logic : Basic

Concepts and Applications. IEEE Press - PHI.

Khalil, S. (2003). Inverted pendulum analysis, design and implementation. Technical

report, The Instrumentation and Control Lab at the Institute of Industrial Electronics

Engineering, Pakistan.

Kim, H. G. and Oh, S. Y. (1995). Locally activated neural networks and stable neu-

ral controller design for nonlinear dynamic systems. International Journal of Neural

Systems, 6(1) :91�106.

Kim, J. S. (2008). Auto tuning PID controller based on improved genetic algorithm for

reverse osmosis plant. In Proceedings of the World Academy of Science and Engineering.

143

Page 161: Approches de l'intelligence artificielle pour la commande

Bibliographie

Kitano, H. (1990). Empirical studies on the speed of convergence of neural network

training using genetic algorithms. In Proceedings of the Eighth National Conference on

Arti�cial Intelligence, pages 789�795.

Klir, G. and Yuan, B. (1995). Fuzzy Sets and Fuzzy Logic Theory and Applications.

Prentice Hill PTR, Upper Saddle River, NJ, USA.

Kusiak, A. (2000). Computational Intelligence in Design and Manufacturing. Wiley-

Interscience.

Lahoty, P. and Parmar, G. (2013). A comparative study of tuning of PID controller using

evolutionary algorithms. International Journal of Emerging Technology and Advanced

Engineering, 3(1) :640�644.

Leung, F., Lam, Ling, S., and Tam, P. (2003). Tuning of the structure and parameters of

a neural network using an improved genetic algorithm. IEEE Transactions on Neural

Networks, 14(1) :79�88.

Levene, H. (1960). In contributions to probability and statistics. Essays in Honor of

Harold Hotelling, pages 278�292.

Lewis, F., Abdallah, C. T., and Dawson, D. M. (1993). Control of Robot Manipulators.

Macmillan Publishing Company, Inc, USA.

Li, J. (2008). A two-step rejection procedure for testing multiple hypotheses. Journal of

Statistical Planning and Inference, 138 :1521�1527.

Li, Y., Luo, Y., Zhao, Z., and Li, J. (2007). Internal model control of pm synchronous

motor based on rbf network optimized by genetic algorithm. In IEEE International

Conference on Control and Automation ICCA 2007., Guangzhou, China.

Li, Y., Ng, K. C., MurraySmith, D. J., Gray, G. J., and Sharman, K. C. (1996). Ge-

netic algorithm automated approach to the design of sliding mode control systems.

International Journal of Control, 63(4) :721�739.

Li, Y., Sundararajan, N., and Saratchandran, P. (2000). Analysis of minimal radial basis

function network algorithm for real-time identication of nonlinear dynamic systems. In

Control Theory and Applications, IEEE Proceedings, volume 147(4), pages 476�484.

Liang, J., Qu, B., Suganthan, P., and Diaz, G. H. (2013). Problem de�nitions and eva-

luation criteria for the CEC2013 special session and competition on real parameter

optimization, technical report. Technical Report 201212, Computational Intelligence

Laboratory, Zhengzhou University, Zhengzhou China.

144

Page 162: Approches de l'intelligence artificielle pour la commande

Bibliographie

Liao, T. and Stutzle, T. (2013). Benchmark results for a simple hybrid algorithm on

the CEC2013 benchmark set for real-parameter optimization. In IEEE Congress on

Evolutionary Computation, CEC 2013, pages 1938�1944, Cancun, Mexico.

Lin, S. C. and Chen, Y. Y. (1997). Design of self-learning fuzzy sliding mode controllers

based on genetic algorithms. Fuzzy Sets Systems, 86(2) :139�153.

Liu, Y., Zheng, Q., Shi, Z., and Chen, J. (2004). Training radial basis function networks

with particle swarms. Advances in Neural Networks ISNN 2004 LNCS, 3171 :317�322.

Ma, H. and Simon, D. (2011). Blended biogeography-based optimization for constrained

optimization. Engineering Applications of Arti�cial Intelligence, 220 :517�525.

Ma, H., Simon, D., Fei, M., and Xie, Z. (2013). Variations of biogeography-based optimi-

zation and markov analysis. Information Sciences, 220 :492�506.

Macarthur, R. and Wilson, E. (1967). The Theory of Biogeography. Princeton, NJ :

Princeton Univ. Press.

Mahajan, R. and Kaur, G. (2013). Neural networks using genetic algorithms. International

Journal of Computer Applications, 77(14) :6�11.

Mamdani, E. H. and Assilian, S. (1975). An experiment in linguistic synthesis with a

fuzzy logic controller. International Journal of Man-machine Studies, 7 :1�13.

Marshall, S. J. and Harrison, R. F. (1991). Optimization and training of feedforward

neural networks by genetic algorithms. In Proc. Second Int. Conferencee on Arti�cal

Neural Networks Genetic Algorithms, pages 39�43.

McCulloch, W. S. and Pitts, W. (1943). A logical calculus of the ideas immanent in

nervous activity. Bulletin of Mathematical Biophysics, 5 :115�133.

Miller, B. L. and Goldberg, D. E. (1995). Genetic algorithms, tournament selection and

the e�ects of noise. Complex System, 9(3) :193�212.

Miller, G. F., Todd, P. M., and Hegde, S. U. (1989). Designing neural networks using

genetic algorithms. In Proc. Third Int. Conf. Genetic Algorithms, pages 379�384.

Mitchell, M. (1998). An Introduction to Genetic Algorithms. Prentice-Hall.

Moody, J. and Darken, C. (1995). Fast learning in network of locally-tuned processing

units. Neural Computation, 1 :606�623.

Nagaraj, B. and Vijayakumar, P. (2011). A comparative study of pid controller tuning

using ga, ep, pso and aco. Journal of Automation, Mobile Robotics & Intelligent Sys-

tems, 5(2) :42�48.

145

Page 163: Approches de l'intelligence artificielle pour la commande

Bibliographie

Nandy, S., Sarkar, P. P., and Das, A. (2012). Traaining a feedforward neural network

with arti�cial bees colony based backpropagation method. International Journal of

Computer Science & Information Technology (IJCSIT), 4(4) :33�46.

Nepomuceno, F. V. . and Engelbrecht, A. (2013). A self-adaptive heterogeneous pso

for real-parameter optimization. In IEEE Congress on Evolutionary Computation,

CEC2013, pages 361�368, Cancun, Mexico.

Orr, M. J. L. (1995). Regularization in the selection of radial basis function centers.

Neural Computation, 7 :606�623.

Paschos, V. T. (2005). Optimisation combinatoire : concepts fondamentaux. Hermes

science publication.

Psaltis, D., Sideris, A., and Yamamura, A. A. (1988). A multilayered neural network

controller. IEEE Control Systems Magazine, 8 :17�21.

PugaGuzman, S., MorenoValenzuela, J., and Santibanez, V. (2014). Adaptive neural

network motion control of manipulators with experimental evaluations. Scienti�c World

Journal, 2014 :1�13.

Qasem, S. and Shamsuddin, S. (2009). Improving performance of radial basis function

network based with particle swarm optimization. In Evolutionary Computation. CEC09.

IEEE Congress on, pages 3149�3156.

Quade, D. (1979). Using weighted rankings in the analysis of complete blocks with additive

block e�ects. Journal of the American Statistical Association, 74 :680�683.

Radcli�e, N. J. (1990). Genetic neural networks on MIMD computers. PhD thesis, Uni-

versity of Edinburgh, Scotland.

Rajasekaran, S. and Pai, G. A. V. (2003). Neural Networks, Fuzzy Logic and Genetic

Algorithms : Synthesis and Applications. PHI.

Rom, D. (1990). A sequentially rejective test procedure based on a modi�ed bonferroni

inequality. Biometrika, 77 :663�665.

Rong, H., Sundararajan, N., Huang, G., and Saratchandran, P. (2006). Sequential adaptive

fuzzy inference system (SAFIS) for nonlinear system identi�cation and prediction. Fuzzy

Sets and Systems, 157-9 :1260�1275.

Rossomando, F. G., Soria, C., and Carelli, R. (2013). Sliding mode neuro adaptive control

in trajectory tracking for mobile robots. Journal of Intelligent & Robotic Systems, 74(3-

4) :931�944.

146

Page 164: Approches de l'intelligence artificielle pour la commande

Bibliographie

Ruijun, D. (2009). Di�erential evolution versus particle swarm optimization for PID

controller design. In Fifth International Conference on Natural Computation, ICNC

'09.

Sabanovic, A., Jezernik, K., and Rodic, M. (1996). Neural network application in sliding

mode control systems. In IEEE International Workshop on Variable Structure Systems

(VSS 96), pages 143�147, Tokyo, Japan.

Salahshoor, K. and Jafari, M. R. (2007). On-line identi�cation of non-linear systems using

adaptiveRBF-based neural networks. International Journal of Information Science and

Management (IJISM), 5(2) :99�121.

Salem, M. and Khel�, M. F. (2011). RBF based sliding mode control for robot ma-

nipulators. In International Conference on Communications, Computing and Control

Applications (CCCA 2011), Hammamet, Tunisia.

Salem, M. and Khel�, M. F. (2012). Application of biogeography based optimization in

tuning a PID controller for nonlinear systems. In In : IEEE International Conference

on Complex Systems (ICCS), Agadir , Morocco.

Salem, M. and Khel�, M. F. (2013). Nonlinear inverted pendulum PID control by an

improved arti�cial bees colony-predator and prey approach. In 3rd International Confe-

rence on Systems and Control ICSC13, Algiers, Algeria.

Salem, M. and Khel�, M. F. (2014a). An enhanced swarm inteligence based training

algorithm for RBF neuraal networks in function approximation. In The 2nd World

Conference on Complex Systems, In press.

Salem, M. and Khel�, M. F. (2014b). Optimization of nonlinear controller with an enhan-

ced biogeography approach. An International Journal of Optimization and Control :

Theories & Applications, 4(2) :77�87.

Salem, M. and Khel�, M. F. (2014c). Predator and prey modi�ed biogeography based

optimization approach (PMBBO) in tuning a PID controller for nonlinear systems.

International Journal of Intelligent Systems and Applications(IJISA), 6(11) :12�20.

Salem, M. and Khel�, M. F. (2014d). Sequential adaptive RBF-fuzzy variable structure

control applied to robotics systems. International Journal of Intelligent Systems and

Applications, 6(10) :19�29.

Sayed, M. M., Saad, M. S., Emara, H. M., and El-Zahab, A. E. E. (2012). A novel method

for PID tuning using a modi�ed biogeography-based optimization algorithm. In 24th

Chinese Control and Decision Conference (CCDC), Taiyuan , China.

147

Page 165: Approches de l'intelligence artificielle pour la commande

Bibliographie

Seeley, T. (1995). The wisdom of the hive. Harvard University Press, Cambridge.

Sha�ei, S. E. (2010). Sliding mode control of robot manipulators via intelligent approaches.

In Advances strategies for Robots manipulators, pages 135�172. Sciyo.

Shapiro, S. S. and Wilk, M. B. (1965). An analysis of variance test for normality (complete

samples). Biometrika, 52(3,4) :591�611.

Sheskin, D. (2006). Handbook of Parametric and Nonparametric Statistical Procedures.

Chapman & Hall CRC, 4th edition.

Shi, X., Zhao, H., and Chen, J. (2012). Advances in Computer Science and Information

Engineering, chapter Terminal Sliding Mode Control for STT Missile Based on RBF

Neural Network, pages 49�54. Springer Berlin Heidelberg.

Si, T., Hazra, S., and Jana, N. D. (2012). Arti�cial neural network training using dif-

ferential evolutionary algorithm for classi�cation. In Proceedings of the International

Conference on Information Systems Design and Intelligent Applications (INDIA 2012)

held in Visakhapatnam, India, January, volume 132 132, pages 769�778, Visakhapat-

nam, India.

Silva, M., dos S Coelho, L., and , R. . F. (2010). Biogeography-based optimization

approach based on predator-prey concepts applied to path planning of 3-dof robot

manipulator. In IEEE Conference Emerging Technologies and Factory Automation

(ETFA), pages 1�8, Cracow, Poland.

Simon, D. (2008). Biogeography-based optimization. IEEE Transactions on Evolutionary

Computation, 12(6) :702�713.

Skinner, A. and Broughton, J. Q. (1995). Neural networks in computational material

science : training algorithms. Modelling and Simulation in Material Science and En-

ginnering, 3 :371�390.

Slotine, J. J. E. and Li, W. (1991). Applied Nonlinear Control. Prentice-Hall.

Solihin, M. I., Tack, L., and Kean, M. L. (2011). Tuning of PID controller using particle

swarm optimization (PSO). In Proceeding of the International Conference on Advanced

Science, Engineering and Information Technology 2011, Bangi-Putrajaya, Malaysia.

Song, S., Zhang, X., and Tan, Z. (2014). Rbf neural network based sliding mode control

of a lower limb exoskeleton suit. Journal of Mechanical Engineering, 60(6) :437�446.

Soundarrajan, A., Sumathi, S., and Sundar, C. (2010). Ant colony optimization based

PID tuning for AVR in autonomous power generating systems. International Journal

of Recent Trends in Engineering and Technology, 3(4) :125�129.

148

Page 166: Approches de l'intelligence artificielle pour la commande

Bibliographie

Sundareswaran, K. (2008). D.C. motor speed controller design through a colony of honey

bees. In TENCON (IEEE Region) conference, pages 1�6.

Tai, N. and Ahn, K. (2010). A rbf neural network sliding mode controller for sma actuator.

International Journal of Control, Automation, and Systems, 8(6) :1296�1305.

Takagi, T. and Sugeno, M. (1985). Fuzzy identi�cation of systems and its applications to

modeling and control. IEEE Trans. Systems, 15 :116�132.

Tereshko, V. (2000). Reaction-di�usion model of a honeybee colonys foraging behaviour.

Parallel Problem Solving from Nature PPSN VI (LNCS), 1917 :807�816.

Thierens, D., Suykens, J., Vandewalle, J., and Moor, B. D. (1991). Genetic weight opti-

mization of a feedforward neural network controller. In Proceedings of the Conference

on Neural Nets and Genetic Algorithms. 1991, pp. 658-663, Springer Verlag., pages

658�663.

Verhoeven, M. and Aarts, E. (1995). Parallel local search. Journal of Heuristics, 1(1) :43�

65.

Wang, X. (1994). Adaptive Fuzzy Systems and Control. NJ :Prentice-Hall Englewood

Cli�s.

Widrow, B. and Lehr, M. A. (1990). 30 years of adaptive neural networks : Perceptrons,

madeline and backpropagation. Proceedings of the IEEE, 78(9) :1415�1442.

Wolpert, H. D. and Macready, W. (1997). No free lunch theorems for optimization. IEEE

Transactions on evolutionary computation, 1(1) :67�82.

Xia, G. and Wu, H. (2013). Advances in Swarm Intelligence, chapter Network-Based

Neural Adaptive Sliding Mode Controller for the Ship Steering Problem, pages 497�

505. Springer Berlin Heidelberg.

Yeremia, H., Yuwono, N. A., Raymond, P., and W.Budiharto (2013). Genetic algorithms

and neural networks for optical character recognition. Journal of Computer Science, 9

(11) : :1435�1442.

Yin, F., Wang, J., and Guo, C. (2004). Design of PID controllers using genetic algo-

rithms approach for low damping slow response plants. Advances in Neural Networks,

3174 :219�220.

Yoo, B. and Ham, W. (1998). Adaptive fuzzy sliding mode control of nonlinear system.

IEEE Transactions on Fuzzy Systems, 6 :315�321.

149

Page 167: Approches de l'intelligence artificielle pour la commande

Bibliographie

Youxin, L. and Xiaoyi, C. (2010). Tuning PID control parameters on hydraulic servo

control system based on di�erential evolution algorithm. In 2nd International Confe-

rence on Advanced Computer Control (ICACC).

Yu, B. and He, X. (2006). Training radial basis function networks with di�erential evolu-

tion. In Proceedings of IEEE International Conference on Granular Computing, pages

369�372, Atlanta, GA, USA.

Yu, X. H., Man, Z. H., and Wu., B. L. (1998). Design of fuzzy sliding mode control

systems. Fuzzy Sets Systems, 95(3) :295�306.

Zadeh, L. (1965). Information and control. Fuzzy Sets, 8 :338�353.

Zain, B. A. M., Tokhi, M., and Toha, S. (2009). PID based control of a single-link �exible

manipulator in vertical motion with genetic optimisation. In Third UKSim European

Symposium on Computer Modeling and Simulation., Athens, Greece.

Zar, J. (2009). Biostatistical Analysis, volume 3. Prentice Hall.

Zhang, R. (2005). E�cient Sequential and Batch Learning Arti�cial Neural Network

Methods for Classi�cation Problems. PhD thesis, Nanyang Technological University.

Zhang, Y., Li, T., and Yi, J. (2012). Adaptive neural network sliding mode control

based on particle swarm optimization for rotary steering drilling stabilized platform.

International Journal of Advancements in Computing Technology(IJACT), 4(19) :107�

114.

150

Page 168: Approches de l'intelligence artificielle pour la commande

Annexes

151

Page 169: Approches de l'intelligence artificielle pour la commande

Annexe A

Systèmes non linéaires utilisés

1 Système masse ressort amortisseur

Le système masse ressort amortisseur (cf. Figure A.1) est un système non linéaire

décrit par l'équation di�érentielle de deuxième ordre (A.1).

mk

b

x(t)

u(t)

Figure A.1: Système masse ressort amortisseur.

x =b

mx+

k

mx+

1

mx3 − 1

mu. (A.1)

où m est la masse, u(t) est la force exercé, k est la constante de rigidité du ressort et

b : le coe�cient d'amortisseur. avec m = 1kg, b = 10Ns/m,k = 20N/m.

2 Pendule inversé

Le pendule inversé est un système formé d'une tige montée en inverse sur un chariot

mobile ; Il est un système non linéaire de second ordre dont le modèle est donnée par

l'équation (A.2) avec x(t) = [θ, θ] vecteur d'état, d(t) est le vecteur des perturbations

externes et u(t) le vecteur de commande (Khalil, 2003).

Le système pendule inversé à modéliser est représenté par la Figure A.2.

152

Page 170: Approches de l'intelligence artificielle pour la commande

Annexe A. Systèmes non linéaires utilisés

mc

θ

u(t)

Figure A.2: Pendule inversé simple.

En exerçant une force horizontale u(t) sur le chariot, celui-ci se déplace en translation

de x mètres et provoque une déviation du pendule de θ radians.

θ = f(x) + g(x)u(t) + d(t). (A.2)

où :

θ =gsin θ −mlθ2cos θsin θ /(mc +m)

l(4/3−mcos2θ/(mc +m))

+cos x1 /(mc +m)

l(4/3−mcos2θ/(mc +m))u(t) + d(t). (A.3)

θ et θ sont la positions et vitesse angulaires de la tige respectivement, g :la gravité, m la

masse de la tige et mc la masse du chariot ; l la moitié de la longueur de la tige et et d(t)

représente le bruit (Khalil, 2003) avec m = 0.1Kg, mc = 1Kg, g = 9.8m/s2 et l = 0.5m.

3 Robots manipulateurs

Un robot est un système mécanique multi-articulé mû par des actionneurs et destiné

à e�ectuer une grande variété de tâches (cf. Figure A.3).

Le modèle dynamique d'un robot manipulateur de n degrés de liberté est donné par

l'équation (A.4) (Lewis et al., 1993) :

M(q)q + C(q, q)q +G(q) + F (q) = Γ (A.4)

où q, q, q sont les vecteurs des position, des vitesses et accélérations angulaires respectives,

Γ est le vecteur des couples. M(q) est la matrice d'inertie, elle est symétrique et dé�nie

positive, C(q, q) est la matrice de Coriolis/Centrifuges et G(q) est le vecteur de gravité.

F (q) est le vecteur de frottement.

153

Page 171: Approches de l'intelligence artificielle pour la commande

Annexe A. Systèmes non linéaires utilisés

q1

L1

q2

L2

q3

L3

Figure A.3: Robot manipulateur.

Dans le cas d'un robot SCARA à 3 ddl , les matrices du modèle sont donnés par

l'équation (A.5) (Ak and Cansever, 2006b) :

M(q)q + C(q, q)q +G(q) + F (q) = Γ. (A.5)

avec :

M(q) =

M11 = 2.1240 + 1.44cos(q2)

M12 = −0.4907− 0.72cos(q2)

M13 = 0

M21 = −0.4907− 0.72cos(q2)

M22 = −0.4907,M23 = 0

M31 = M32 = M33 = 0

(A.6)

C(q, q) =

C11 = 1.44.q2.sin(q2)

C12 = −0.72.q2.sin(q2)

C22 = −0.72.q2.sin(q2)

C13 = C21 = C23 = 0

C31 = C32 = C33 = 0

(A.7)

G(q) =

G1 = 0

G2 = 0

G3 = −4.9

(A.8)

154

Page 172: Approches de l'intelligence artificielle pour la commande

Annexe A. Systèmes non linéaires utilisés

F (q) =

F1 = 12q1 + 0.02sign(q1)+

3sin(3t)

F2 = 12q2 + 0.02sign(q2)+

3sin(3t)

F3 = 12q3 + 0.02sign(q3)+

3sin(3t)

(A.9)

Les bruits externes sont données par :

Γd =

5sin(2t)

5sin(2t)

5sin(2t)

(A.10)

155