61
Quelques travaux sur les métaheuristiques en optimisation continue Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation du recuit simulé et des colonies de fourmis Optimisation par essaim particulaire Optimisation dynamique 1

métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Quelques travaux sur les

métaheuristiques en optimisation continue

Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956)

Cadre général de l’optimisation continue « difficile »

Adaptation du recuit simulé et des colonies de fourmis

Optimisation par essaim particulaire

Optimisation dynamique

1

Page 2: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

2

Cadre général de

l’optimisation

continue « difficile »

Page 3: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

3

Problèmes « difficiles » en variables continues :

Exemple : optimisation des performances d’un circuit électronique

Générateur de courant

constant (CEA)

objectif : i = Cte, V1

8 variables : dimensions (wi, li) des canaux des 4 transistors MOS

(1) Optimisation

Page 4: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

4

(2) Caractérisation, ou identification :

Exemple : caractérisation d’un modèle de moteur électrique synchrone (CEGELY, Lyon)

objectif : faire coïncider au mieux les courbes calculées

(sorties du modèle) et les courbes expérimentales

(mesures relevées sur le moteur)

19 variables : tous les « paramètres » du modèle numérique

Page 5: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

5

(3) Apprentissage (réseau de neurones, base de règles floues)

Nombreuses applications continues, dans tous les

domaines de l’ingénierie (électronique, mécanique, …)

Exemple : apprentissage d’un réseau de neurones analogique (CEA)

objectif : reproduire au mieux la fonction « sinus » sous forme câblée

16 variables : les résistances (coefficients synaptiques) du réseau de neurones

R2 R2

1N5233B

12 V

470

TL07412 V+

-

TL07412 V+

-

R1

R1

TL07412 V+

-

TL07412 V+

-

R1

R1

TL07412 V+

-

TL07412 V+

-

R1

R1

+

-

+

-

+

-

+

-

+

-

+

-

R1,1,1

R1,1,2

R1,2,1

R1,2,2

R1,3,1

R1,3,2

R1,4,1

R1,4,2

R1,5,1

R1,5,2

N1,1

N1,2

N1,3

N1,4

N1,5

N2,1

R2,1,1

R2,1,2

R2,1,3

R2,1,4

R2,1,5

R2,1,6

R1

ENTREE X

-3.14 V to +3.14 V

Outnet(X)

VCLAM P +

VCLAM P -

avec R1 = 10 k

et R2 = 20 k

Source constante

+1V

-1V

-

+

TL074

12V

-

+

TL074

12V

-

+

TL074

12V

élément de calcul

R 1

R 1

R 1

R 1

a v e c R 1 = 1 0 k

VCL AM P +

VCL AM P -

1 N 9 1 4

1 N 9 1 4

So rti e +

So rti e -

Page 6: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

6

Existence de problèmes mixtes discrets / continus :

Détermination automatique de la topologie et des valeurs

des paramètres : « recuit simulé logarithmique »

(J.P. Courat, G. Raynaud, I. Mrad & P. Siarry : Electronic component model minimization

based on Log Simulated Annealing, IEEE Trans. on Circuits and Systems 41 (1994) 790-795)

Exemple :

inductance MMIC Thomson

Page 7: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

7

• problème mono-objectif

• fonction objectif f(x), à minimiser

• seules contraintes : « contraintes de boîte » :

xiMIN < xi < xi

MAX

Hypothèses

Difficultés spécifiques aux problèmes continus :

(on parle aussi de « problèmes difficiles », mais sans référence ici

à la théorie de la complexité…)

• pas d’expression analytique de f

• f « bruitée » :

- bruit expérimental (exploitation de mesures)

- « bruit de calcul » numérique

(utilisation d’un simulateur de circuits électroniques)

gradients

de f non

accessibles

Page 8: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

8

• f comporte des non-linéarités

• existence de corrélations

(non précisément localisées) entre variables

nombreux

minimums locaux

besoin d’une méthode d’optimisation : - « directe » (i.e. sans gradients) : interdit l’emploi de méthodes classiques puissantes, de « type Newton » - « globale » (dans le sens suivant : méthode non piégée, en principe, dans un minimum local)

N.B. : les termes « global » / « local » ne caractérisent pas ici le

type de mouvement utilisé ( par exemple, recuit simulé : à la fois

local, par son mécanisme, et global, par sa finalité…)

Page 9: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

9

recours aux métaheuristiques, qui sont toutes à la fois « directes » et « globales »

- l’aspect « direct » des métaheuristiques, lié à

leur origine combinatoire, n’a pas d’attrait

particulier dans le cas discret

- c’est, au contraire, un avantage très important,

dans le cas continu « difficile »

sauf exception (Essaims particulaires),

métaheuristiques conçues / cadre discret

nécessité d’une « adaptation »

aux problèmes continus

Page 10: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

10

Quelques écueils de cette adaptation

- d’ordre « culturel » :

• applications continues le plus souvent du ressort des sections

61 & 63 du CNU

• savoir-faire / métaheuristiques : plutôt section 27

• informaticiens moins intéressés par les problèmes continus,

peu standardisés peu de résultats théoriques

- d’ordre « technique » :

• hétérogénéité des domaines de définition des différentes

variables

• variables de gammes très étendues (plus de 10 décades)

Page 11: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

11

Confrontation avec les études empiriques des concurrents

périlleuse :

codes concurrents rarement publics

grand intérêt pour les travaux d’E. Taillard : « A statistical test for comparing success rates » :

http://www.optimization-online.org/DB_HTML/2003/11/784.html

confrontation facilitée, si les concurrents jouent le jeu !

délicat de programmer soi-même les méthodes concurrentes

résultats publiés difficilement comparables :

- jeux de fonctions de test

de domaines d’évolution des variables

- choix du mode de sélection du point initial

du nb d’exécutions moyennées / résultat

- définitions du « succès » (approche de x*)

de l’« erreur finale » (en f ? en x ?)

du temps de calcul

Page 12: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

12

La plupart des techniques développées pour adapter

une métaheuristique ne sont pas applicables aux

autres métaheuristiques…

En continu, comme en discret, aucune métaheuristique

ne semble surpasser ses concurrentes…

Adaptation / 2 métaheuristiques :

- recuit simulé

- colonie de fourmis

Page 13: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

13

Problème d’optimisation Système physique

Fonction objectif énergie libre

Paramètres du problème coordonnées des particules

Trouver une bonne configuration trouver les états de basse énergie

Recuit simulé

CONFIGURATION INITIALE

TEMPERATURE INITIALE T

MODIFICATION élémentaire

REGLE D'ACCEPTATION de Metropolis

- si 0 : modification acceptée

- si

équilibre thermodynamique

?

OUI système figé

?

PROGRAMME DE RECUIT diminution lente de T

NON NON

variation d'énergie E

E

E 0 : modification acceptée avec la probabilité exp ( - E / T )

STOP

OUI

Page 14: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

14

Recuit simulé : cas continu

- Il faut gérer la « discrétisation » de l’espace de recherche

- Procédure (intuitive) possible :

• variable xi « pas » de discrétisation STEPi :

STEPi : variation maximale de xi en un seul « mouvement »

STEPi est différent pour chaque variable xi

• pour STEPi donné, « mouvement » de xi :

xi’ = F (xi , STEPi) loi F ?

Page 15: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

15

• STEPi doit être ajusté périodiquement, pour « maintenir

constante l’efficacité » de l’optimisation, lorsque T diminue :

fréquence d’ajustement du pas ?

loi d’ajustement du pas ?

• Choix des variables xi concernées par un mvt donné ?

efficacité : peut être évaluée à l’aide :

- du taux d’acceptation des mvts tentés ?

- de l’amplitude moyenne des mvts déjà effectués ?

Page 16: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

16

Pas de résultats théoriques :

- pour valider cette procédure intuitive

- pour préciser ses diverses options

approche empirique systématique,

au moyen d’une batterie de fonctions

de test publiées :

Page 17: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

17

Michalewicz (MZ) (n variables) :

domaine de recherche : 0 xi , i= 1, n

n = 2 , 1 minimum global : MZ(x*) = - 1.80

n = 5 , 1 minimum global : MZ(x*) = - 4.687

n =10, 1 minimum global : MZ(x*) = - 9.68

Goldstein-Price (GP) (2 variables) :

GP(x) = [1 + (x1 + x2 + 1)2 (19 - 14x1 + 13x12 - 14x2 + 6x1x2 + 3x2

2] .

[30 + (2x1 - 3x2)2 (18 - 32x1 + 12x1

2 - 48x2 - 36x1x2 + 27x22]

domaine de recherche : -2 xi 2, i = 1,2 ;

4 minimums locaux

1 minimum global : x* = (-1 , 0) ; GP(x*) = 3.

De Jong F6 (DJ F6) (2 variables) :

Xi= [16(i mod 5)-2] & Yi= 16 [integer(i/5)-2]

domaine de recherché : -65 xi 65, i = 1,2 ;

25 minimums : (32j, 32k) , j , k = -1, - 0.5, 0, 0.5, 1

minimum global : x* = (-32, -32) ; F6(x*) 0.9980

24

06

26

111002.0

16

i ii YxXxi

xF

202

1

.sin).sin()(

in

i

ixixxMZ

Page 18: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

18

Réglage retenu :

(P. Siarry, G. Berthiau, F. Durbin, J. Haussy, ACM Trans. on Math. Softw. 23

(1997) 209-228)

code disponible

STEPi modifié à l’issue de chaque palier de T

On exploite le taux d’acceptation Ai des mvts tentés, au

cours du palier, pour xi :

- si Ai > 20%, STEPi est doublé

- si Ai < 5%, STEPi est divisé par 2

STEPi initial : ¼ du domaine de variation de xi

Page 19: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

19

Si le domaine de variation de xi est « peu étendu » :

xi’ = xi y . STEPi (y : nb. réel aléatoire [0,1])

Sinon (cas de plusieurs décades) : loi logarithmique

4 critères complémentaires pour l’arrêt du programme

Les n variables du problème sont modifiées par groupes de p,

formés aléatoirement : typiquement, p n/3

Les fréquences de mvt des différentes variables sont égalisées

Page 20: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

20

Variante, non « directe »

Succès, tout particulièrement en électronique (Exemple :

IRCOM, Limoges) d’une variante du recuit simulé continu :

la « diffusion simulée »

(« Simulated Diffusion » : Aluffi-Pentini et al., J. Optimiz. Theory Appl.

47 (1985) 1-16)

Cette méthode a recours, toutefois, aux gradients de f

Page 21: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

21

- La convergence peut être accélérée, en ayant recours à l’algo.

du polytope de Nelder & Mead :

Variante hybride

(R. Chelouah & P. Siarry, EJOR 161 (2005) 636-654)

x r

x 3

x b

x 2

b) réflexion

x e

x 3

x b

x 2

c) extension

x 3

x b

x c

x 2

x' c

d) contraction (xc interne, x’c

externe)

xb sommet où la valeur de la

fonction objectif est MIN

xh sommet où la valeur de la

fonction objectif est MAX

x 3

x b

x h

x 2

a) Polytope initial

Page 22: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

22

Décroissance adaptative de la température

- Etude théorique

et expérimentale

(E. Triki, Y. Collette & P. Siarry,

EJOR 166 (2005) 77-92)

- Principaux résultats :

• plusieurs lois adaptatives classiques,

ayant des origines et des expressions

mathématiques bien différentes, sont,

en pratique, équivalentes :

Page 23: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

23

• le choix le plus simple : (Tk) = Cte ne correspond à aucune

loi classique

• nous avons montré que ce choix peut être formateur, face à

un problème nouveau

• on montre que ce sont des cas particuliers de la loi générique :

Tk+1 = Tk . [ 1 – Tk . (Tk) / s2(Tk) ]

où : s2(Tk) = < fTk2 > - < fTk >

2

(Tk) : dépend de la loi adaptative choisie

Page 24: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

24

Colonies de fourmis : cas continu

2 premiers algorithmes en variables continues :

CACO (1995, Bilchev & Parmee)

API (2000, Monmarché & al.)

diversification :

fourmis « globales », chargées de délimiter de grandes « régions »

création et évaluation des régions : utilisent les mêmes opérateurs

qu’un AG

intensification :

fourmis « locales », affectées aux diverses « régions »

dépôt de phéromone : proportionné à l’amélioration de f

-Principe de CACO (« Continuous Ant Colony Optimization ») :

Page 25: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

25

Inconvénients de CACO :

- complexe : AG + fourmis

- trop de paramètres

S’inspire du comportement d’une fourmi primitive :

« Pachycondyla apicalis »

Simule une forme de communication directe entre 2 fourmis :

le « tandem-running » amène à rassembler les individus dans

les meilleurs sites de chasse

Inconvénient de API :

N’exploite pas de pistes de phéromone pas de « stigmergie »

(communication indirecte, via l’environnement)

-Principe de API :

Page 26: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

26

Nouvel algorithme : CIAC

« Continuous Interacting Ant Colony » (J. Dréo & P. Siarry, Future Generation Computer Systems 20 (2004) 841-856)

l’idée est :

- de préserver le cadre des colonies de fourmis

- d’exploiter plusieurs formes de communication

Insectes sociaux et communication :

(Hölldobler &Wilson : « The Ants ». Springer, 1990)

« Recrutement » : forme de communication , qui entraîne les

individus à se regrouper en un endroit où un travail est nécessaire

Page 27: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

27

- recrutement indirect par pistes :

suivi de piste dépôt de phéromone

Nid

Nourriture

- recrutement direct interindividuel :

exemple : mobilisation

Procède par « trophallaxies » :

échanges de nourriture liquide

entre 2 individus

?

Page 28: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

28

« Hétérarchie dense » :

Hiérarchie Hétérarchie dense

Wilson & Hölldobler, “Dense Heterarchy and mass communication as the basis of organization in ant colonies”. Trends in Ecology and Evolution, 3 (1988) 65-68

Page 29: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

29

Principale particularité de CIAC :

2 canaux de communication

1) spots de phéromone

2) messages entre

2 individus

mémoire interne / individuelle = NIVEAU LOCAL

mémoire externe / collective = NIVEAU GLOBAL

Page 30: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

30

Diffusion de phéromone

Recrutement = f(proximité)

Recrutement = f(quantité)

Niveau global

Toutes les fourmis impliquées

Page 31: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

31

Envoi de messages

Niveau local

Informations :

Amélioration fonction objectif

Position zone d’intérêt

Page 32: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

32

Résultats

La synergie entre les deux canaux de communication a été

observée empiriquement :

En présence des 2 canaux, l’écart-type des valeurs de f

est plus grand, et présente de plus amples oscillations

« auto-organisation », avec alternance :

- de phases de diversification (s grand)

- de phases d’intensification (s petit)

Page 33: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

33

Validation sur un jeu de 13 fonctions de test « statiques »

performances généralement inférieures / meilleures métaheuristiques

2 orientations :

- (classique) hybridation

- application en optimisation continue « dynamique »

En optimisation dynamique, on a une meilleure exploitation de la

flexibilité et de l’auto-organisation inhérentes à un algorithme de

colonie de fourmis

Page 34: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

34

• L'OEP est aussi une technique fondée sur la coopération entre

des agents : les « particules ».

• Ces agents peuvent être vus comme des « animaux » aux

capacités individuelles limitées : peu de mémoire et de facultés

de raisonnement.

• L’échange direct d'information entre ces agents rudimentaires

permet néanmoins de résoudre des problèmes difficiles.

L’optimisation par essaim particulaire (OEP, ou PSO en anglais)

Page 35: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

35

Schéma de principe du déplacement d’une particule

Pour réaliser son prochain

mouvement, chaque particule

combine trois tendances :

Nouvelle

position Vitesse

actuelle

Position

actuelle

Vers la meilleure

performance de mes

informatrices

Vers ma

meilleure

performance

compromis psycho-social,

entre confiance en soi et

influence de ses relations

sociales… suivre sa propre vitesse

revenir vers sa meilleure

performance

aller vers la meilleure

performance de ses

informatrices

Page 36: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

36

algorithme OEP standard

Pour chaque particule (solution candidate) :

i = numéro de la particule

j = numéro de la composante vectorielle

t = numéro de l’itération

v = « vitesse » de la particule

x = position de la particule

w = coefficient d’inertie

p = meilleure position connue de la particule elle-même

g = meilleure position connue au sein de l’essaim c1 , c2 = coefficients d’attraction

r1 , r2 = nombres aléatoires, de distribution uniforme en [0,1]

vi,j(t+1) = w vi,j(t) + c1 r1i,j [pi,j(t)–xi,j(t)] + c2 r2i,j

[gj(t)-xi,j(t)]

xi,j(t+1) = xi,j(t) + vi,j(t+1)

Page 37: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

37

Deux types de paramètres de contrôle

Les paramètres de topologie de l’essaim :

1) la taille de l’essaim

2) la taille maximale du voisinage d’une particule

Individualisme / Collectivisme

Intensification / Diversification

Les paramètres de déplacement :

1) l’inertie des particules ( w )

2) les coefficients d’attraction ( c1 et c2 )

3) la vitesse maximale d’une particule

Page 38: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

38

Notions de voisinage et de topologie

Le voisinage d’une particule est le sous-ensemble de particules qu’elle peut

interroger pour récupérer des informations.

La structure de voisinage entre les particules forme le réseau de communication, appelé topologie de l’OEP.

Page 39: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

39

Plusieurs questions se posent sur la coopération entre les particules :

qui échange avec qui ?

quelle est l’information échangée ?

quand se fait l’échange ?

à quoi sert l’information échangée ?

Page 40: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

40

X

Y

voisinage géographique

voisinage social

voisinage géographique / voisinage social

Page 41: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

41

, ,, , 1 1 , , 2 2 ,

, , ,

( 1) ( ) ( ) ( ) ( ) ( ) (1)

( 1) ( ) (t+1) (2)

i j i ji j i j i j i j j i j

i j i j i j

v t wv t c r p t x t c r g t x t

x t x t v

Quelle est l’influence de la topologie dans l’OEP ?

la meilleure position dans le voisinage de la particule la composante sociale

Page 42: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

42

autres topologies de l’OEP

Pyramid Four-Cluster Von Neumann Wheel

statiques :

dynamiques :

Fitness

Geometric

Hierarchy

Random topology (utilisée dans SPSO’2006, SPSO’2007 et SPSO’2011)

...

Page 43: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

[Parsopoulos et al., 02] Approche agrégée

Agrégation linéaire

Agrégation dynamique

[Parsopoulos et al., 02] Approche non agrégée

non Pareto

Ordre lexicographique

Génération dynamique des voisinages

[Parsopoulos et al., 04] Approche non agréée

non Pareto (VEPSO)

Adaptation de VEGA

Un essaim pour chaque objectif

[Pulido et al., 04] Approche Pareto

élitiste

Essaim divisé en sous-essaims

Variation des fonctions de sélection des guides

[Alvarez-Benitez et al., 05] Approche Pareto

élitiste (MOPSO-pd)

Variation des fonctions de sélection des guides

Utilisation d’un facteur de turbulence

[Sierra et al., 05]

Approche Pareto

élitiste (OMOPSO)

Essaim divisé en sous-essaims

Variation des techniques de mutation

Etude de l’héritage et de l’approximation

[Durillo et al., 09] Approche Pareto

élitiste (SMPSO)

Amélioration de OMOPSO

Limitation de la vitesse

[Cooren et al., 09] Approche Pareto

élitiste (MO-TRIBES)

Adaptation de TRIBES

Algorithme sans paramètres de contrôle

[Cabrera et al., 10] Approche Pareto

élitiste (Micro-MOPSO)

Essaim de petite taille

Réinitialisation + deux archives externes

[Bartz-Beielstein et al., 03] Approche Pareto

élitiste (DOPS)

Variation des fonctions de mise à jour des guides et de l’archive

[Quintero et al., 08]

Approche Pareto

élitiste

Essaim de petite taille + un petit nombre d’évaluations

Hybridation avec des techniques de rech. locale

Manque de

diversité

Convergence prématurée

Nombreuses versions multiobjectif

Page 44: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Algorithme TRIBES (M. Clerc)

44

Un algorithme d’OEP sans réglage de paramètres.

Optimisation mono-objectif, adaptable au cas multiobjectif.

L’essaim est divisé en tribus :

au début, l’essaim est formé d’une seule particule, constituant une tribu.

la qualité de chaque tribu induit une suppression ou un ajout de particule.

la qualité de chaque particule détermine la stratégie de déplacement.

chaque particule est guidée par sa meilleure performance et par la meilleure performance de ses particules informatrices.

Page 45: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

45

Les adaptations structurelles :

Suppression d’une particule : on élimine la plus mauvaise particule d’une bonne tribu.

Ajout d’une particule : on ajoute de nouvelles particules aux mauvaises tribus, pour obtenir de nouvelles informations.

Les adaptations comportementales :

La stratégie de déplacement d’une particule est fonction de ses deux dernières performances.

Page 46: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

46

Page 47: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

47

Livre de Maurice Clerc paru en 2005

Maurice Clerc a créé et met à jour régulièrement ce site dédié à l’OEP :

http://www.particleswarm.info/

conférence ICSIBO’2016 :

résumés et transparents en ligne :

http://www.mage.fst.uha.fr/icsibo2016/

Page 48: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Optimisation dynamique

Le problème d’affectation de tâches

machine 2

machine 1

charge

machine 3

charge

ajout retrait

panne

Compression du signal

nouveau modèle

à chaque battement peu de différences entre

les décalages consécutifs

Estimation du mouvement dans une séquence

Le problème de tournées de véhicules

dépôt

ajout

retrait

Page 49: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

En optimisation dynamique, la fonction objectif change au cours du temps :

soit :

• un espace de recherche S

• une fonction objectif f

• le temps t

Dans le cas d’une minimisation, on cherche s*(t) telle que :

s* (t) = arg min f(s, t)

s S

s*(t)

f(s, t)

s

Formulation d’un pb. d’optimisation dynamique (mono-objectif)

Page 50: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Moving Peaks Benchmark [Branke, 1999]

Beaucoup d’auteurs l’utilisent encore

Generalized Dynamic Benchmark Generator [Li et al., 2008]

Utilisé depuis la compétition organisée lors de

IEEE Congress on Evolutionary Computation (CEC’2009)

Jeux de tests

50

Page 51: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Moving Peaks Benchmark (1 / 2)

MPB consiste en un ensemble de pics, dont la hauteur, la largeur et la position peuvent varier au cours du temps, après un certain nb d’évaluations de la fonction.

MPB est paramétrable.

(a) Avant un changement (b) Après un changement

x x y y

f(x, y) f(x, y)

51

Page 52: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Moving Peaks Benchmark (2 / 2)

* time span : plage d’évaluations de f durant laquelle la fonction objectif ne change pas. Un changement de la fonction objectif se produit ici toutes les 5000 itérations.

Paramètre Scénario 2

Nombre de pics 10

Dimension 5

Hauteur des pics [30, 70]

Largeur des pics [1, 12]

Nombre d’évaluations d’un time span* 5000

Sévérité des déplacements des pics 1

Sévérité des changements de hauteur des pics 7

Sévérité des changements de largeur des pics 1

Coefficient d’autocorrélation des déplacements des pics 0

c eN

j

jN

i

jij

ec

ffjNN

oe1

)(

1

**

)(

11Offline error : moyenne des écarts entre l'optimum global et la meilleure solution trouvée à chaque évaluation (une erreur de 0 signifie un suivi parfait de l'optimum) :

Page 53: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Generalized Dynamic Benchmark Generator (1 / 2)

Le jeu de tests GDBG est constitué de 49 fonctions dynamiques. Il y a un score global, le maximum possible est de 100.

L’ensemble de ces fonctions est supposé être représentatif de la plupart des problèmes d’optimisation dynamique réels.

Divers types de changements, plus ou moins chaotiques et brutaux, ont lieu après un certain nombre d’évaluations de la fonction (time span, comme pour MPB).

Ce problème est paramétrable, et a été utilisé lors de la compétition de CEC’2009.

Composition of Ackley’s function Composition of Rastrigin’s function Composition of Griewank’s function

Page 54: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Chaque fonction dynamique est basée sur une fonction statique.

A chaque time span, une opération de changement lui est appliquée.

Il y a 6 fonctions statiques :

F1: Rotation peak function

F2: Composition of Sphere's function

F3: Composition of Rastrigin's function

F4: Composition of Griewank's function

F5: Composition of Ackley's function

F6: Hybrid Composition function

Il y a 7 opérations de changement :

T1: Small step

T2: Large step

T3: Random

T4: Chaotic

T5: Recurrent

T6: Recurrent change with noise

T7: Random change with changed dimension

Generalized Dynamic Benchmark Generator (2 / 2)

54

Page 55: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Adaptation des métaheuristiques d’optimisation statique

Introduire de la diversité après un changement [Cobb, 1990]

Maintenir la diversité tout au long de la recherche [Grefenstette, 1992]

Mémoriser des informations sur les « états » passés [Yang & Yao, 2008]

Plusieurs populations de solutions [Branke et al., 2000 ; Parrott & Li, 2004]

Prédire les futurs changements [Rossi et al., 2008]

Etat de l’art : techniques

55

Page 56: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Multi-Agent based algorithm for Dynamic Optimization

Economiser les évaluations de la fonction objectif

utilisation d’une recherche locale

spécialisée

Maintenir la diversité tout au long de la

recherche

utilisation d’une population d’agents

coordonnés

Mémoriser des informations sur les

« états » passés

archiver les optima locaux trouvés

suivre les déplacements des optima archivés

Objectifs à atteindre :

56

J. Lepagnot, A. Nakib, H. Oulhadj & P. Siarry,

A multiple local search algorithm for continuous dynamic optimization,

Journal of Heuristics 19 (2013) 35-76.

Page 57: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

Performances sur GDBG (jeu de tests de CEC’2009)

0

10

20

30

40

50

60

70

80

90

100

MLSDO MADO Brest et al.

2009

Korosec et

al. 2009

Yu et al.

2009

Li et al.

2009

França et

al. 2009

Score

81,28

70,76 69,73 65,21

58,09 57,57

38,29

AIS EAs ACO OEP EAs Multi-agent Multi-agent

57

Page 58: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

58

Quelques pages de publicité

pour finir….

Page 59: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

59

CEC’05 Single Objective Optimization

CEC’06 Constrained Single Objective Optimization

CEC’07 Multi-Objective Optimization

CEC’08 Large-Scale Global Optimization

CEC’09 Dynamic and Uncertain Environments

CEC’09 Constrained Multi-Objective Optimization

Quelques sessions organisées dans le cadre

de conférences CEC successives

Page 60: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

60

commun aux GdR MACS et RO du CNRS

Animateurs : L. Deroussi [email protected]

P. Siarry [email protected]

E.G. Talbi [email protected]

Groupe META

Page 61: métaheuristiques en optimisation continue · Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956) Cadre général de l’optimisation continue « difficile » Adaptation

2014 2012