112
Segmentation d’images couleur ou multispectrales par analyse d’histogrammes multidimensionnels Sié OUATTARA (06-01-2009) Directeur de thèse : Bertrand VIGOUROUX Co-encadrant : Alain CLEMENT Doctorant en traitement d’image et signal au LISA 1

SEMINAIRE LISA

Embed Size (px)

DESCRIPTION

SEMINAIRE LISA. Segmentation d’images couleur ou multispectrales par analyse d’histogrammes multidimensionnels Sié OUATTARA (06-01-2009) Directeur de thèse : Bertrand VIGOUROUX Co-encadrant : Alain CLEMENT Doctorant en traitement d’image et signal au LISA. - PowerPoint PPT Presentation

Citation preview

Page 1: SEMINAIRE  LISA

Segmentation d’images couleur ou

multispectrales par analyse

d’histogrammes multidimensionnels

Sié OUATTARA(06-01-2009)

Directeur de thèse : Bertrand VIGOUROUXCo-encadrant : Alain CLEMENT

Doctorant en traitement d’image et signal au LISA1

Page 2: SEMINAIRE  LISA

PLAN

Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

2

Page 3: SEMINAIRE  LISA

Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

3

Page 4: SEMINAIRE  LISA

Traitement et analyse d’images

Science pluridisciplinaire (physique, électronique, mathématique et informatique)

Contribution dans divers domaines (médical, robotique, télédétection, …)

4

Page 5: SEMINAIRE  LISA

Nature des images à segmenter et analyser (aspect vectoriel)

Plan R Plan V Plan B Plans (R,V,B)

Plan 1

House

Plans (1,2,3) Plans (4,5,6) Plans (7,8,9)

M4 (9D)5

Page 6: SEMINAIRE  LISA

Cadre des travaux

Continuité de certains travaux entrepris au LISA

Analyse des histogrammes multidimensionnels (nD), n≥2

Histogramme nD compact

Segmentation d’images couleur ou multispectrales (images multicomposantes)

Travaux limités en général à l’analyse d’histogrammes 2D

Extension de la segmentation à l’analyse d’ histogrammes nD

6

Page 7: SEMINAIRE  LISA

Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

7

Page 8: SEMINAIRE  LISA

Travaux (non paramétriques) :

Limités généralement a l’analyse des histogrammes 2D (non paramétrique)[Clément et Vigouroux, 2003] (Plans RG); [Lezoray, 2003] combinaison de cartes de segmentation (RG,RB,GB) par LPE, etc.

- Non prise en compte de la corrélation entre les plans- Choix a priori des plans, réduction du nombre de plans- Modes des histogrammes marginaux diffèrent des modes des histogrammes nD

Peu de travaux sur l’analyse d’histogrammes nD non paramétriques ( n≥3)

Méthodes d’estimation de noyaux : [Gillet, 2001 ]; [Comaniciu et al., 2002]; etc.- (1) Grand volume de données, (2) Coût de traitement élevé

Aspect diffus des histogrammes nD Influence sur la qualité des résultats des méthodes de segmentation quand n augmente.

Nombre de classes élevé et donc problème de pertinences des classes construites Difficulté de traitement de l’information redondante

8

Page 9: SEMINAIRE  LISA

Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

9

Page 10: SEMINAIRE  LISA

Objectif globalMise en œuvre d’une méthode de segmentation d’images couleur

oumultispectrales par analyse d’histogrammes nD (n>=3).

Objectifs spécifiquesAnalyse des histogrammes nD ( n>=2)

Etiquetage en composantes connexes (ECC) des histogrammes nD

Réaliser une méthode de classification optimale à stratégie vectorielle en limitant la sur-segmentation

Evaluation de la segmentation10

Page 11: SEMINAIRE  LISA

PLAN Contexte du travail Objectifs Problématique Etat de l’art de la segmentation d’images Etat de l’art de l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

11

Page 12: SEMINAIRE  LISA

Etat de l’art

Définitions

Stratégies de segmentation

Approches de segmentation

Méthodes de classification

Choix d’une métrique et d’un espace couleur

Conclusion partielle

12

Page 13: SEMINAIRE  LISA

Définitions

Segmentation d’images: processus de décomposition d’une image en régions connexes ayant une homogénéité selon un critère, par exemple la couleur, la texture, etc. L’union de ces régions constitue l’image.

Cette définition n’impose pas l’unicité de la segmentation

Classification: étape préalable à la segmentation qui consiste à regrouper en différentes classes les pixels ayant des caractéristiques similaires (ex : couleur) .

Classification supervisée: classification intégrant des connaissances a priori de l’image ( ex: germes ou nombre de classes)

Classification non supervisée: classification en aveugle (ne nécessite aucune connaissance a priori de l’image)

Métrique: mesure de ressemblance entre deux éléments de l’image13

Page 14: SEMINAIRE  LISA

Etat de l’art

Définitions

Stratégies de segmentation

Approches de segmentation

Méthodes de classification

Choix d’une métrique et d’un espace couleur

Conclusion partielle

14

Page 15: SEMINAIRE  LISA

Stratégies de segmentation

Approche marginale

opère une segmentation sur chaque composante de l’image puis fusionne les cartes de segmentation en une seule.

Approche bi-marginale

segmente les couples de plans (ex : RG, RB, GB dans l’espace RVB) puis fusionne les cartes de segmentation.

Approche scalaire

fusionne d’abord les composantes en une seule puis la segmente .

Approche par réduction du nombre de plans

consiste à choisir d’abord un nombre de composantes a priori ou obtenu par une méthode de réduction d’espace (ACP, …) puis réalise la segmentation.

15

Page 16: SEMINAIRE  LISA

Stratégies de segmentation

Approche semi-vectorielle

ne prend pas en compte toute la corrélation entre les composantes de l’image. Rapide en temps de calcul.

Approche vectorielle

segmente directement l’image en considérant une information vectorielle (histogramme nD). Prend en compte la corrélation totale entre les plans. Couteux en temps de calcul

Approche vectorielle avec requantification

la résolution tonale (Q) est réduite à q (q <Q)

pour q ≥ 5 bits la qualité visuelle de l’image est sensiblement préservée et présente l’avantage d’être rapide pour q = 5 bits .

16

Page 17: SEMINAIRE  LISA

Etat de l’art

Définitions

Stratégies de segmentation

Approches de segmentation

Méthodes de classification

Choix d’une métrique et d’un espace couleur

Conclusion partielle

17

Page 18: SEMINAIRE  LISA

Approches de segmentionsDeux grandes approches :

Approches régions

Recherche les zones dans l’image selon un critère d’homogénéité.Deux méthodes :

Méthodes spatiales: partitionnement en régions dans le plan image en tenant compte de l’information attribut du pixel (couleur, …), par ex. croissance de régions, division-fusion, etc.

Méthodes de classification pixellaires: regroupement des méthodes de partitionnement basées uniquement sur les attributs des pixels (couleur, ...). Par ex. clustering, analyse d’histogrammes, etc.

Approches contours

extraction des bords entre objets en se basant sur la recherche de discontinuités ( méthodes dérivatives, morphologiques, …).

18

Page 19: SEMINAIRE  LISA

Etat de l’art

Définitions

Stratégies de segmentation

Approches de segmentation

Méthodes de classification

Choix d’un métrique et d’un espace couleur

Conclusion partielle

19

Page 20: SEMINAIRE  LISA

Méthodes de classification

classification nette: classification dans laquelle un pixel est affecté à une classe dont il est le plus proche selon un critère de distance ou de similarité.

classification floue: classification réalisant un partitionnent fou, c’est-à-dire un pixel appartient à une classe avec un degré d’appartenance, cette notion découle de la théorie des sous-ensembles flous que nous verrons dans une autre section.

Méthodes de classification

Deux grandes méthodes :

Les clusterings : fondées sur le principe que les pixels d’une même classes possèdent les mêmes caractéristiques radiométriques ( couleurs, …), ces techniques peuvent être nettes ou floues et nécessite la connaissance a priori du nombre de classes.

Exemple de méthodes : Centres mobiles [Forgy, 1965], K-Means [Hartigan, 1975], ISODATA [Takahashi et al., 1995], Nuées dynamiques [Diday, 1982], FCM [Bezdeck et al., 1984]. 20

Page 21: SEMINAIRE  LISA

Méthodes de classification

Méthodes de classification (suite)

Analyse d’histogrammes: considère que la distribution des spels de l’histogramme nD forme des modes de forte densité correspondant aux classes présentes.

Inconvenients : Une trop grande quantité de données des histogrammes nD à manipuler Un coup élevé en temps de calcul

Stratégies des méthodes d ’analyse d’histogrammes nD

méthodes paramétriques : elles expriment le problème de classification en termes probabilistes ou la classe est sensée suivre une distribution spécifique dans l’espace nD, classiquement une gaussienne. [Postaire, 1983] [Akaho, 1995]

méthodes non paramétriques : elles ne font référence à aucun modèle probabiliste et ces approches reposent sur la détection des modes. [Fukunaga et al, 1975], [Vasseur et Postaire, 10], [ Ouattara et Clément, 2008]

21

Page 22: SEMINAIRE  LISA

Méthodes de classification

Quelques travaux bibliographiques sur l’analyse d’histogramme

Recherche de modes ( pics) par :estimation de noyaux par approches paramétrique et non paramétrique (Mean-

shift) recherches de minimas (LPE ) seuillage basé sur la minimisation d’une fonctionnelle ([Otsu, 1979]).

Quelques travaux d’approches par seuillages

Auteur Annéestratégi

eType Fonctionnelle

Fisher 1958 1D multiénergie intra -

classe

Otsu 1979 1D binaire énergie inter-classe

Parker 1996 1D multi entropie

Rosin 2001 1D multi modes

Houladj et al. 2007 2D binaire entropieTravaux de segmentation par seuillage 22

Page 23: SEMINAIRE  LISA

Méthodes de classification

Quelques travaux bibliographiques sur l’analyse d’histogramme

Travaux d’approches par recherche de modes

Auteur Annéestratégi

e

Ohlander et al. 1978 1D-1D-1D

Tominaga 1990 1D-1D-1D

Lim and Lee 1990 1D-1D-1D

Schettini 1993 1D-1D-1D

Hemming et Rath 2001 1D

Lezoray 2003 1D-1D-1DTravaux de segmentation par recherche de modes ou pics

23

Page 24: SEMINAIRE  LISA

Méthodes de classification

Quelques travaux bibliographiques sur l’analyse d’histogramme

Travaux d’approches par recherche de modes ou pics (suite)

Auteur Année Stratégie Technique

Xuan et Fisher 2000 3Dquantification-

G.mixtures

Kurugolu et al. 2001 2D-2D-2D modes

Clément et Vigouroux 2002 2D modes

Lezoray et Charrier 2004 2D-2D-2D LPE

Mclahan et Peel 2000 nD Finite Mixtures Models

Comaniciu 2002 nD Mean shift

Ouattara et Clément 2008 nD modesTravaux de segmentation par recherche de modes ou pics

24

Page 25: SEMINAIRE  LISA

Etat de l’art

Stratégies de segmentation

Approches de segmentation

Méthodes de classification

Choix d’une métrique et d’un espace couleur

Conclusion partielle

25

Page 26: SEMINAIRE  LISA

Choix d’une métrique et d’un espace couleur

Choix d’une métrique

influence sur les résultats des méthodes de segmentation (ex : euclidienne, Mahalanobis, Tchebychev, etc.).

pas de métrique universelle

en segmentation couleur, difficulté à différencier des couleurs proches.

Nous utiliserons la métrique euclidienne.

Choix d’un espace couleur

dépend de la méthode envisagée, de la nature des images et du résultat recherché.

pas de meilleur espace couleur pour la segmentation pour tout type d’images [Liu et Yang ,1994] .

Il est conseillé de segmenter dans l’espace initial d’acquisition.26

Page 27: SEMINAIRE  LISA

Etat de l’art

Stratégies de segmentation

Approches de segmentation

Méthodes de classification nette et floue

Choix d’un métrique et d’un espace couleur

Conclusion partielle

27

Page 28: SEMINAIRE  LISA

Conclusion partielle

La classification ne répond pas à tous types de problèmes. On peut adjoindre une étape de traitement spatial: c’est la classification spatio-colorimétrique.

Les méthodes de clustering sont rapides mais leur inconvénient réside dans le fait que le résultat de segmentation dépend de l’initialisation.

Les méthodes paramétriques sont rapides mais présentent l’inconvénient d’un a priori sur la distribution statistique des classes.

Les méthodes semi-vectorielles et de réduction d’espace sont rapides mais présentent l’inconvénient de ne pas prendre en considération toute la corrélation entre les composantes de l’image.

Les méthodes proposées sont non paramétriques et vectorielles28

Page 29: SEMINAIRE  LISA

PLAN Contexte du travail Objectifs Problématique Généralités Etat de l’art de la segmentation d’images Etat de l’art de l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

29

Page 30: SEMINAIRE  LISA

Etat de l’art

Méthodes d’évaluation de segmentation

Analyse des Méthodes d’évaluation

30

Page 31: SEMINAIRE  LISA

Méthodes d’évaluation de segmentation

Généralités

Deux types de stratégies : [Chabrier, 2004] [Philipp-Pholiguet et Guigues, 2006].

Les méthodes supervisées : évaluation des segmentations par rapport à une segmentation de référence ou vérité terrain. Mesure de [Vinet, 1991].

Les méthodes non supervisées : classification des segmentations par ordre de pertinence grâce à des mesures de qualité sans connaissance a priori de l’image.

adaptées aux images naturelles. Mesures de [Levine et Nazif, 1985], [Liu et Yang, 1994], [Borsotti et al., 1998], [Zeboudj, 1988], [Rosenberger, 1999].

Remarque : Des méthodes de détermination du nombre de classes optimal peuvent être exploitées pour l’évaluation

31

Page 32: SEMINAIRE  LISA

Méthodes d’évaluation de segmentation

Méthodes supervisées

Mesure de Vinet [1991]

A : nombre total de pixel de l’image, Ck : couplage optimal entre régions de l’image segmentée et la segmentation de référence et K : nombre de régions de l’image segmentée

Méthodes non supervisées Critère d’uniformité intra-région de Levine et Nazif [1985]:

Mesure de Levine-Nazif = où σi est la variance de la région i et C une constante

de normalisation qui pourrait être la variance maximale de l’image

N.B : le complément à 1 de cette valeur est calculée pour évaluer la segmentation32

Page 33: SEMINAIRE  LISA

Méthodes d’évaluation de segmentation

Méthodes non supervisées (suite) Mesure de Borsotti [Borsotti et al.,1998]

N(Ai) : nombre de régions ayant une aire égale à AiA : nombre total de pixel de l’image, ei² : variance de la région i de l’image

segmentée et N: nombre de régions de l’image segmentée

Critère de Rosenberger (F(I)) [Chabrier et al., 2004]:

: Disparité intra-région ; : Disparité inter-région

33

Page 34: SEMINAIRE  LISA

Méthodes d’évaluation de segmentation

Méthodes non supervisées (suite)

Critère de Zeboudj [Cocquerez et Philipp, 1995]

Ai : nombre de pixel d’une

région Ri

A : nombre total de pixels de

l’image

C(Ri) : contraste d’une région Ri

CI(i) : contraste interne d’une région Ri

CE(i) : contraste externe d’une région Ri 34

Page 35: SEMINAIRE  LISA

Etat de l’art

Méthodes d’évaluation de segmentation

Analyse des Méthodes d’évaluation

35

Page 36: SEMINAIRE  LISA

Analyse des méthodes d’évaluation

Le critère de :

Levine et Nazif : favorise les segmentations à régions homogènes indépendamment de l’aire des régions

Borsotti : favorise aussi les segmentations à régions homogènes en privilégiant légèrement les régions à grands effectifs et pénalise les segmentations ayant des régions à effectifs égaux et la sur-segmentation

Rosenberger : favorise les segmentations à régions homogènes bien séparées, aussi des segmentations à régions proches à grand effectifs et tient compte de l’information spatiale.

Zeboudj : favorise des segmentations à régions homogènes et bien séparées et tient compte de l’information spatiale

N.B : Retenons le critère de Levine et de Nazif (simple et adapté à la classification) 36

Page 37: SEMINAIRE  LISA

Analyse des méthodes d’évaluation

Application aux méthodes d’évaluation

Choix de K-means pour étudier le comportement des méthodes d’évaluation

Test sur des images de Forsythia au nombre de 24 dont on a les vérités terrain 

Principe de K-means L’algorithme k-means est en 4 étapes :

1. Choisir k objets formant ainsi k clusters

2. (Ré)affecter chaque objet O au cluster Ci de centre Mi tel que distance(O,Mi) est minimal

3. Recalculer Mi de chaque cluster (le barycentre) et l’énergie E

4. Aller à l’étape 2 si non stabilisation de E37

Page 38: SEMINAIRE  LISA

Méthodes d’évaluation de segmentation Application aux méthodes d’évaluation

IMG01 IMG05 IMG08 IMG24

Seg_01_Man Seg_05_Man Seg_08_Man Seg_24_Man

Seg_01_Kmeans Seg_05_Kmeans Seg_08_Kmeans Seg_24_Kmeans 38

Page 39: SEMINAIRE  LISA

Analyse des méthodes d’évaluation

Application aux méthodes d’évaluation (suite)

Evaluation non supervisée de segmentation manuelle et Kmeans du Forsythia

39

Page 40: SEMINAIRE  LISA

Méthodes d’évaluation de segmentation

Conclusion partielle

Les segmentations K-means et manuelle sont pertinentes variablement d’un critère à l’autre.

Le critère de Zeboudj et Rosenberger favorise la segmentation manuelle

Le critère de Levine et Borsotti favorise la segmentation par K-means

Conséquences

Le choix de la méthode d’évaluation dépend du but visé

Pas de méthode universelle de segmentation

Pas d’unicité du partitionnement d’une image,

40

Page 41: SEMINAIRE  LISA

Contexte du travail Objectifs Problématique Généralités Etat de l’art de la segmentation d’images Etat de l’art de l’évaluation de la

segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

41

Page 42: SEMINAIRE  LISA

Méthodes de segmentation proposées

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit

42

Page 43: SEMINAIRE  LISA

Méthodes de segmentation proposées

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit

43

Page 44: SEMINAIRE  LISA

Histogrammes nD compact

un histogramme : graphique statistique permettant de représenter la distribution des spels ( niveaux de gris, couleur, …) c’est-à-dire l’occurrence de chaque spel.

D’un point de vue algorithmique l’histogramme est manipulé dans une structure de données sous forme de tableau.

Exemple de structure de codage d’histogramme

NG : Niveaux de GrisE : EffectifR : RougeV : VertB : Bleu

NG E

0 10

.. ..

200 37

.. ..

255 16

R V B E

0 0 0 0

.. .. .. ..

125

16 4523

.. .. .. ..

255

255

255

71Histogramme 1D Histogramme couleur (3D)

44

Page 45: SEMINAIRE  LISA

Histogrammes nD compact

Différentes structures d’histogrammes nD

Histogramme de Thomas [1991]

Obtenu à partir des 5 bits de poids forts de chaque composante de RGB (taille: 32X32X32).

Histogramme de Xiang [1997]

Une liste (R,G) code les valeurs de bleu prises par les pixels de l’image et le nombre de pixels RGB.

Histogramme de Balasubramania [1991]

Similaire à celui de Xiang mais les valeurs de B sont stockées dans un arbre

Histogramme nD compact [Clément et Vigouroux, 2001]

Similaire à celui de Thomas. Réduit de façon drastique l’espace mémoire occupé par l’histogramme sans perte en stockant uniquement les spels (ex: couleur) réellement présents dans l’image.

45

Page 46: SEMINAIRE  LISA

Histogrammes nD compact

Exemple d’un histogramme 3D compact

image synthétique couleur [synt_gdr ]( 256x256), résolution tonale 24 bits .

E

45092

1245

1950

3768

9050

4431

R V B

86 84 70

121

95 69

107

91 56

187

87 87

70 87 87

63108

99 Image synt_gdr et son histogramme 3D compact

46

Page 47: SEMINAIRE  LISA

Histogrammes nD compact

Avantage de Histogramme nD compactRéduit le volume de l’histogramme nD classique d’un facteur X

Pour une image multi-composantes de dimension MxNxP ( P étant le nombre de plans),

C : nombre de cellules réellement occupées ≤ MxN

E : nombre de bits nécessaire pour coder une cellule ≥ log2(MxN)

Q : résolution tonale de chaque plan

VolumeHistogramm

e nD

Synt_gr(256x256x3)

House(256x256x3) M4(838x762x9)

classique 128 Mo 128 Mo 3,6.1016 Mo

compact 0,029 Ko 0,129 Mo 1,22 Mo

47

Page 48: SEMINAIRE  LISA

Méthodes de segmentation proposées

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit

48

Page 49: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Bibliographie (deux concepts)

L’ECC réalisé sur des images binaires 2D puis sur des images nD binaires [ Haralick et al.,1992] [Sedgewick et Robert, 1998]

En théorie des graphes : recherche de composantes connexes (CC) réalisée mais pas sur le concept d’étiquetage. [Mény et al., 2005] [Cogis et Robert, 2003]

Dans cette section nous avons opté pour le concept d’ECC dans les images binaires

49

Page 50: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Composante connexe: correspond mathématiquement à une classe d’équivalence

Un voisinage : relation qui lie des éléments d’un ensemble E, on considéra que notre relation de voisinage définit une relation d’équivalence.

Notion de voisinage (connexité) spatial dans les images binaires

La notion de voisinage a été généralisée par Rosenfeld [1979] dans un espace topologique nD discret.

Soit 2 voisinages en 2D définissant deux types de connexité.

4-voisins

2D

8-voisins ou full-connexité50

Page 51: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Notion de voisinage spatial et de connexité spatiale dans les images binaires

Utilisation de la full-connexité car adaptée à la recherche d’objets dans les images binaires. Elle sera adaptée à l’histogrammes nD compact pour l’étiquetage.

En 3D, la full-connexité correspond à un 26 voisinage

En nD, la full-connexité correspond à 3n-1-voisins

51

Page 52: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Exemple d’ECC d’une image 2D binaire (4 voisinage)

Les objets sont en blanc et le fond en noir

Image à une (1) Composante 4-connexe

NB : Le type de connexité influence le nombre de Composantes Connexes (CC) et leur forme géométrique

(a) Image binaire 2D

12 1

3 2 13 2 13 3 2 12 2 2 11 11 1 1 1 1

(b) régions connexes

étiquettes représentants population

1 1 24

2 1

3 1

(c) tableau d’équivalence final

52

Page 53: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Adaptation de l’ECC à l’histogramme nD compact (Hc)

L’illustration est faite avec un histogramme 2D compact comme illustré ci-dessous

Un algorithme récursif permet de générer les voisins d’un spel ( (i,j)) puis de rechercher ses voisins dans l’Hc nD afin de déduire les étiquettes de ses voisins. L’histogramme compact nD est parcouru du haut vers le bas.

Plan I Plan J

0 0

… …

i-1 j-1

i-1 j

i-1 j+1

… …

i j-1

i j

… …

2Q-1 2Q-1

Axe J

Axe I

(i-1,j-1) (i-1,j) (i-1,j+1)

(i,j-1) (i,j)

53

Page 54: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Complexité maximale de l’ algorithmique d’ECC (MaxHc)

n : nombre de spels de l’histogramme nD compactP : nombre de plans de l’imageQ : résolution tonale de chaque plan de l’image

MaxHc(n) = (k(n-k)) avec k = (2p.Q -1)/(1-2Q), Si n > k 

MaxHc(n) = ( n2) avec k = (2p.Q -1)/(1-2Q), Si n ≤ k

54

Page 55: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

ECC de quelques images naturelles

Des images couleur et multi-spectrales de la base de données images du Gdr-isis et de l’université du sud de Californie

M4_9DRésolution=838x762x9

HouseRésolution=256x256

PeppersRésolution=512x512

MandrillRésolution=512x512

55

Page 56: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

ECC de quelques images naturelles

Nombre de composantes des Histogrammes nD compact des images précédentes

Nom imageNombre de spels histogramme nD

Nombre de composantes connexes(CC)

M4_9D 116425 94443

M4_6D 108815 11879

M4_3D 17850 5235

House 33925 6812

Peppers 53488 12443

Mandrill 61662 21859

56

Page 57: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Influence du nombre de plans n sur la distribution de l’histogramme nD compact

Variation du nombre de spels de l’histogramme nD compact en fonction du nombre de plans

57

Page 58: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Influence du nombre de plans n sur la distribution de l’histogramme nD compact

Variation du nombre de spels de l’histogramme nD de l’image ORGE en fonction de n (1 à 10)58

Page 59: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Influence du nombre de plans n sur la distribution de l’histogramme nD compact

Variation du nombre de spels des histogrammes nD de l’image M4 en fonction de n (1 à 9)

59

Page 60: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Influence du nombre de plans n sur la distribution l’histogramme nD compact

Variation du NED de l’histogramme nD compact en fonction du nombre de plans

60

Page 61: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Influence du nombre de plans n sur le nombre de CC de l’histogramme nD compact

Variation du nombre de composantes connexes (CC) quand n varie d’images multispectrales

61

Page 62: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Influence du nombre de plans n sur le nombre de CC de l’histogramme nD compact

Variation de l’effectif des composantes connexes quand n varie de M462

Page 63: SEMINAIRE  LISA

ECC classique d’histogrammes nD compact

Etude morphologique des histogrammes nD compact

Bilan sur la morphologie des histogrammes nD compact

Quand n croît :

• le nombre des spels augmente et l’occurrence des spels diminue pour tendre vers 1.• l’histogramme nD s’aplatit géométriquement

L’histogramme nD compact à effectifs compact (1 à NED) fournit géométriquement les mêmes modes que l’histogramme nD compact

Quand n croît

• le nombre de composantes connnexes (CC) de Hc augmente considérablement• les effectifs des composantes connexes diminuent en général

l’intégration d’un voisinage flou ou d’une similarité floue entre spels dans le processus d’ECC (connectivité floue) améliore la qualité de sélection des meilleurs pics et limite la sur-segmentation.

63

Page 64: SEMINAIRE  LISA

Méthodes de segmentation proposées

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit

64

Page 65: SEMINAIRE  LISA

Méthode de classification nD

Principe de la classification nD (ImSegHier_nD)

Ce modèle repose sur: l’histogramme compact nD à effectifs compacts (1 à NED).

le choix d’un seuil d’effectif S qui impose le nombre de classes .

l’extraction des pics est basée sur l’algorithme d’ECC

Entourés d’un cercle : les feuilles ou pics retenus

En rouge : les nœuds construits

En noir : branches explorées et pics non retenus à cause de l’effectif <S

Exemple de classification hiérarchique nD pour un seuil S fixé, n=1 65

Page 66: SEMINAIRE  LISA

Méthode de classification nD Comparaison des résultats de ImSegHier_nD avec K-means

Quelques résultats de segmentation

Synt_Gdr

Seg1_ImSegHier_3D

Je veux 6 classes ?

Seg2_Kmeans_3D

- Même résultat

RR GG BB

6363 108108 9999

7070 123123 7777

8686 8484 7070

107107 9191 5656

121121 9595 6969

187187 8787 8787

Effectif(%)Effectif(%)

06,7606,76

13,8113,81

68,8068,80

02,9802,98

1,901,90

5,755,75

66

Page 67: SEMINAIRE  LISA

Méthode de classification nD

Quelques résultats de segmentation (suite)

Synt_RayonDispersion

Seg1_ImSegHier_3D

Je veux 6 classes ?

Seg2_Kmeans_3D

- Résultats différents

RR GG BB

6363 108108 9999

7070 123123 7777

8686 8484 7070

8787 8484 7070

8888 8484 7070

8989 8484 7070

9090 8484 7070

9191 8484 7070

107107 9191 5656

121121 9595 6969

187187 8787 8787

Effectif(%)Effectif(%)

06,7606,76

13,8113,81

32,0432,04

01,0701,07

0,760,76

1,221,22

0,460,46

33,2533,25

2,982,98

1,901,90

5,755,75

67

Page 68: SEMINAIRE  LISA

Méthode de classification nD

Quelques résultats de segmentation (suite)

Synt1ou 3_sie

RR GG BB

2020 2020 2020

2222 2020 2020

240240 240240 2020

Effectif(%)Effectif(%)

2525

2525

5050

- ImSegHier_3D ne peut pas fournir 2 classes

- k-means fournie les 2 classes visuellement évidentes

Je veux 2 classes ?

Seg1_ImSegHier_3D

Impossible

Seg2_Kmeans_3D68

Page 69: SEMINAIRE  LISA

Méthode de classification nD

Quelques résultats de segmentation (suite)

Synt2009_sie

RR GG BB

201201 102102 00

204204 102102 00

5151 00 204204

Effectif(%)Effectif(%)

32,348632,3486

45,776445,7764

21,875021,8750

Je veux 2 classes ?

Seg1_ImSegHier_3D Seg2_Kmeans_3D

- Résultats différents

69

Page 70: SEMINAIRE  LISA

Quelques résultats de segmentation (suite)

M4(9D)

Seg1_ImSegHier_9D (8 classes)

IRM(4D) HOUSE MANDRILL

Seg1_ImSegHier_4D (8 classes)

Seg1_ImSegHier_3D (5 classes)

Seg1_ImSegHier_3D (8 classes)

Seg2_Kmeans_9D (8 classes)

Seg2_Kmeans_4D (8 classes)

Seg2_Kmeans_3D (5 classes)

Seg2_Kmeans_3D (8 classes) 70

Page 71: SEMINAIRE  LISA

Méthode de classification nD Quelques résultats de segmentation (suite)

IMG01 IMG05 IMG08 IMG24

Seg_01_Man Seg_05_Man Seg_08_Man Seg_24_Man

Seg1_01_ImgSegHier Seg1_05_ImSegHier Seg1_08_ImSegHier Seg1_24_ImSegHier 71

Page 72: SEMINAIRE  LISA

Evaluation des résultats de segmentation de ImSegHier_nD

Nom imageCritère de Levine et Nazif

(complément)

ImSegHier_nD K-means

Synt_Gdr 1 1Synt_RayonDispersi

on 0,9995 0,9972

Synt1ou3 impossible 1

Synt2009 0,8161 1

House 0,9698 0,9553

Mandrill 0,8971 0,9192

IRM 0,9277 0,8927

M4 0,8608 0,8669 Evaluation non supervisée de la méthode ImSeghier_nD

72

Page 73: SEMINAIRE  LISA

Evaluation des résultats de segmentation de ImSegHier_nD

Bilan de l’évaluation

ImSeghier_nD donne de meilleurs résultats pour les 24 images de Forsythia

ImsegHier_nD moins satisfaisant en évaluation non supervisée

Nous proposons : (1) intégration de voisinage flou , (2) la requantification

Nom imageCritère de Vinet

ImSegHier_nD K-means

Forsythia ( IMG01) 05,78% 08,43%

Forsythia ( IMG05) 05,46% 09,84%

Forsythia ( IMG08) 05,46% 10,43%

Forsythia ( IMG24) 04,19% 09,44%

Evaluation supervisée de la méthode ImSeghier_nD

73

Page 74: SEMINAIRE  LISA

Méthodes de segmentation proposéesJustification des approches

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit 74

Page 75: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Optimisation de la méthode de segmentation ImsegHier_nD

Problèmes de Imseghier_nD :

sur-segmentation ( justifié par le nombre de CC)

mauvaise qualité de la segmentation ( évaluation segmentation non supervisée)

Analyse :

Similarité floue et requantification pour limiter la sur-segmentation

seuil S : pas toujours pertinent pour la sélection des meilleurs pics

Permettre à ImSegHier_nD d’intégrer les performances de K-means

75

Page 76: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Analyse de la sélection de pics pertinents dans les histogrammes nD

But : choisir les pics pertinents afin d’éviter la sur-segmentation.

1er Cas : cas de référence

Pic1

Pic2

d12

Exemple de référence à pics bien séparés

d12 ≥ do, où do est la distance minimale nécessaire pour discriminer les 2 classes

Ei : Effectif du pic i

76

Page 77: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Analyse de la sélection de pics pertinents dans les histogrammes nD

But : choisir les pics pertinents afin d’éviter la sur-segmentation.

2ème Cas :

Exemple d’histogramme à 3 pics avec E1 ≥ E2 > E3

Si S est choisi pour avoir deux pics, on sélectionnera que les pics 1 et 2, ce qui est faux car on devait choisir Pic12 et Pic 3.

Pic1 Pic2Pic3

Pic12

77

Page 78: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Analyse de la sélection de pics pertinents dans les histogrammes nD

Le but de cette partie est de choisir les pics pertinents afin d’éviter la sur-segmentation.

3ème Cas :

Exemple d’histogramme à 3 pics d’effectifs égaux E1 = E2 = E3

Ce cas admet deux solutions a savoir 1 seule classe ou 3 classes.

Impossible d’avoir les 2 classes

Pic1

Pic2

Pic3

78

Page 79: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Analyse de la sélection de pics pertinents dans les histogrammes nD

Solutions proposées pour résoudre les cas 2 et 3 :

Générer plus de clases et les fusionner en maximisant l’énergie inter-classe ( non abordé dans cette présentation)

Intégration d’un rayon de dispersion pour l’extraction des pics ( non abordé ici)

Intégration d’un modèle de voisinage flou dans le processus de classification , c à d en remplaçant l’ECC classique par l’ECCF (étiquetage en composantes connexes floues)

Requantification de l’image à différentes résolutions tonales inferieures q ( q <Q) puis appliquer ImSegHier_nD, avec Q la résolution tonale de chaque plan de l’image

.

79

Page 80: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

La logique floue s’appuie sur la théorie mathématique des ensemble flous introduite par Zadeh en 1965 et constitue une extension de la théorie des ensembles classiques pour la prise en compte d’ensembles définis de façon imprécise.

Un sous-ensemble flou A ( ensemble floue A) d’un référentiel B est caractérisé par

une fonction d’appartenance notée à valeurs dans [0, 1]

Une relation floue (similarité floue)

80

A

:

: 0,1

( , ) ( , )

X

R

est un ensemble flou

relation floue est binaire si U V

Une relation floue sur deux univers U et V

La

R U V

u v u v

Page 81: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Connexité floue

Différents travaux : [Udapa, 1996]; [Carvalho et al., 1999], etc.

voisinage flou k (similarité flou) :

N.B : un graphe de similarité entre spels peut être généré à partir de la relation floue K

Chemin entre deux spels c et d :

succession de spels k-connexe liant c et d, notions utilisées en théorie des graphes.

niyixiMaxYXd :1,),(

81

Page 82: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Connexité floue

Coût d’un chemin P :

avec m≥2 sachant que et

Soit sous ensemble flou décrivant le coût d’un chemin k -connexe relatif au

chemin P est :

(1) (2) ( ), ,...,

mP C C C

(1) cC ( )m dC

(1) (2) ( 1)(2) (3) ( )( ) min , ), , ),..., , )( ( (

m mp k k kc c cc c c

82

Page 83: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Connectivité floue

Relation floue ѱ sur k

sous ensemble flou ѱ caractérisé par la fonction d’appartenance calcule le coût global des chemins entre c et d,

Pcd : ensemble de tous les chemins reliant c et d Cette relation définit une relation d’équivalence (ѱ –connexe) N.B : En fixant une valeur de coût ϴ on peut extraire les composantes connexes floues ѱ –connexe correspondant à des ϴ-coupes .

( , ) ( )maxcd

p

c d pP

83

Page 84: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Algorithme de connexité de floue (ECCF)

Principe similaire à l’ECC

Seul la recherche des voisins flous d’un spel de l’histogramme nD compact pour un coût ϴ donné est remplacé par la recherche de voisins classiques (on ne cherchera pas à déterminer tous les chemins pour étiqueter un spel).

N.B : un graphe de similarité peut être généré pour la recherche des composantes connexes floues

0,26 0,3 0,33 0,3 0,26

0,3 0,41 0,5 0,41 0,3

0,33 0,5 X(1)

Exemple de CCF ( ѱ –connexe) en 2D pour un coût minimum ϴ =0,2684

Page 85: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Complexité au pire de l’ECCF ( Cp)

( 1)

: '

: ' ;

: ' ;

(1 )

( 1)

2

( 1)( 1). min( 1,| 1 ( 1). |)

2

2P Q

inv

in

m

Soient N Nombre de spels de l histogramme compact

P Nombre de spels de l image

Q Résolution tonale de chaque plan de l image

soient k et

k kSi N k Cp

Sinon

k kCp N k m m k

2

( 1)3,

2

N

k

N NCp P en pratique

85

Page 86: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Application de l’ECCF

Nombre de composantes connexes floues pour différents coût ϴ

Variation du nombre de CCF en fonction de d(ϴ) 86

Page 87: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Application de l’ECCF

Statistiques des composantes connexes floues pour différents coûts ϴ

Répartition en effectif des CCF pour différentes valeurs de ϴ 87

Page 88: SEMINAIRE  LISA

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Classification nD par voisinage flou (ImsegHier_Floue_nD)

Généralisation de ImSegHier_nD en remplaçant l’ECC par l’ECCF

quand ϴ = 0,5 , ImSegHier_Floue_nD correspond à ImSegHier_nD

Différentes segmentations d’un même nombre de classes sont réalisées pour différentes valeurs de ϴ,

choix de la segmentation la plus pertinente ce qui revient à déterminer le ϴ optimal..

88

Page 89: SEMINAIRE  LISA

Résultats de segmentation de ImSegHier_Floue_nD

Synt_RayonDispersion

Seg1( ϴ=0,5 ) (6 classes)

Synt1ou3 Synt2009Synt_gdr

Seg1( ϴ=0,5 ) (6 classes)

Seg1( ϴ=0,5 ) (2 classes)

Seg1( ϴ=0,5 ) (2 classes)

Seg2( ϴ= 0,20) (6 classes)

Seg2( ϴ=0,167 ) (6 classes)

Seg2( ϴ= 0,33) (2 classes)

Seg2( ϴ=0,25 ) (2 classes)

Impossible

89

Page 90: SEMINAIRE  LISA

Résultats de segmentation de ImSegHier_Floue_nD

M4(9D)

Seg1( ϴ=0,5 ) (8 classes)

IRM(4D) HOUSE MANDRILL

Seg1( ϴ=0,5 ) (8 classes)

Seg1( ϴ=0,5 ) (5 classes)

Seg1( ϴ=0,5 ) (8 classes)

Seg2( ϴ=0,25 ) (8 classes)

Seg2( ϴ=0,167 ) (8 classes)

Seg2( ϴ= 0,25) (5 classes)

Seg2( ϴ =0,167) (8 classes) 90

Page 91: SEMINAIRE  LISA

Méthodes de segmentation proposées

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit

91

Page 92: SEMINAIRE  LISA

Méthode de segmentation nD par requantification

Principe de la méthode (ImSegHier_Requant_nD)

Principe est identique à ImSegHier_nD, mais l’image est requantifiée

Requantification limitée jusqu’à 5 bits (qualité visuelle de l’image presque préservée).

Principe de la requantification

Deux méthodes :

Par troncature : on supprime les (Q-q) bits de poids faibles

Par arrondi : la valeur de résolution q la plus proche de Q

Q : la résolution tonale de chaque plan de l’image (en général Q=8)q : la nouvelle résolution tonale de l’image requantifiée ( q ϵ {5,6,7} )

Nous avons opté pour l’approche par troncature

92

Page 93: SEMINAIRE  LISA

Résultats de segmentation de ImSegHier_Requant_nD

Synt_RayonDispersion

Seg1( q =7 bits ) (6 classes)

Synt1ou3 Synt2009Synt_gdr

Seg1( q=7 bits ) (6 classes)

Seg1( q=7 bits ) (2 classes)

Seg1( q=7 bits) (2 classes)

Seg2( q= 5 bits) (6 classes)

Seg2( q=5 bits ) (6 classes)

Seg2( q= 5 bits) (2 classes)

Seg2( q=5 bits ) (2 classes) 93

Page 94: SEMINAIRE  LISA

Résultats de segmentation de ImSegHier_Requant_nD

M4(9D)

Seg1( q= 7 bits ) (8 classes)

IRM(4D) HOUSE MANDRILL

Seg1( q= 6 bits ) (8 classes)

Seg1( q= 7 bits ) (5 classes)

Seg1( q= 7 bits ) (8 classes)

Seg2( q= 6 bits ) (8 classes)

Seg2( q= 5 bits ) (8 classes)

Seg2( q= 5 bits) (5 classes)

Seg2( q = 5 bits) (8 classes) 94

Page 95: SEMINAIRE  LISA

Méthodes de segmentation proposées

Histogrammes nD compact

ECC classique d’histogrammes nD compact

Méthode de classification nD

Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue

Méthode de classification nD par requantification

Résistance des méthodes de segmentation nD au bruit

95

Page 96: SEMINAIRE  LISA

Résistance des méthodes de segmentation nD au bruit

Resistance de la méthode au bruit (exemples de segmentation)

Synt_gdr Synt_gdr bruitée gaussien de variance σ = 0.02

Seg_Reference ( 6classes)

ϴ = 0,167Vinet =0,52%

ϴ = 0,2Vinet = 0,52%

ϴ = 0,33Vinet = 33,72%

ϴ = 0,5Vinet =35,99%

96

Page 97: SEMINAIRE  LISA

Résistance des méthodes de segmentation nD au bruit

Evaluation de la résistance de la méthode ImSegHier_Floue_nD au bruit (bruit gaussien non corrélé)σ Nombre de classes ,

2 3 4 5 6

0,005 0 0 0 0 0

0,01 0 0 0 0 0

0,015 0 0,0015 0,0015 0,024 0,053

0,02 0,0015 12,51 0,069 0,37 35,99

0,025 0,063 12,58 0,39 26,34 45,89

0,03 26,36 12,80 1,19 25,17 42,21

0,04 26,43 38,1 50,44 70,97 71,02

0,05 27,83 39,81 41,54 59,96 65,08

0.5

Résistance au bruit gaussien de la méthode par voisinage flou, les valeurs de Vinet calculés sont en % et expriment le % de pixels mal

classés.

Segmentation acceptable pour mesure Vinet ≤5%

97

Page 98: SEMINAIRE  LISA

Résistance des méthodes de classification nD au bruit

Comparaison de la résistance au bruit des deux méthodes de segmentation

Résistance des deux méthodes de au bruit gaussien, les valeurs de Vinet calculés sont en % et expriment le % de pixels mal classés.

Segmentation acceptable pour mesure vinet ≤5%

Synt gdr avec bruit gaussien additif de σ = 0,02

Mesure de Vinetθ q

0.5 0,33 0,20 0,17 5 6 7

2 classes 1,53.10-5  4,58.10-5  4,58.10-5  4,58.10-5  5.10-4  7,63.10-5  3,05.10-5 

3 classes 0,1251 0,1252 0,1251 0,1251 0,1256 0,1252 0,1251

4 classes 0,00069 0,00072 0,00072 0,00072 0,0041 0,0011 0,00085

5 classes 0,0037 0,0036 0,0039 0,0039 0,0238 0,0059 0,0044

6 classes 0,3599 0,3372 0,0052 0,0052 NA 0,0158 0,0169

98

Page 99: SEMINAIRE  LISA

PLAN Contexte du travail Objectifs Problématique Généralités Etat de l’art Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

99

Page 100: SEMINAIRE  LISA

Evaluation de la segmentation

Evaluation des méthodes de segmentation proposées

Discussion des résultats d’évaluation

Conclusion partielle

100

Page 101: SEMINAIRE  LISA

Evaluation des deux méthodes de segmentation proposées

Evaluation non supervisée des méthodes de segmentation nD

Nom imageCritère de Levine et Nazif (complément à 1)

ImSegHier_Floue_nD ImSegHier_Requant_nDK-

meansϴ=0,5 ϴ=0,33 ϴ=0,25 ϴ=0,20 ϴ=0,167 q =5 q = 6 q = 7

Synt_gdr 1 1 1 1 1 1 1 1 1

Synt_RayonDispersion

0,9995

0,9995

0,9995

0,9995

0,9999 0,9999 0,99990,999

90,997

2

Synt1ou3 NA 1 1 1 1 1 1 1 1

Synt20090,816

10,816

11 1 1 1 1

0,8161

1

House0,969

80,962

50,968

50,967

60,9680 0,9671 0,9693

0,9701

0,9553

Mandrill0,897

10,899

80,905

40,890

60,9141 0,8913 0,9004

0,9112

0,9192

IRM0,927

70,896

30,821

30,812

50,8297 0,8468 0,8930

0,8766

0,8927

M40,860

80,868

10,844

30,734

30,7891 0,7870 0,8007

0,8636

0,8669

101

Page 102: SEMINAIRE  LISA

Evaluation des deux méthodes de segmentation proposées

Evaluation supervisée des méthodes de segmentation nD

Nom imageCritère de Vinet

ImSegHier_Floue_nD(ϴ = 0,5)

ImSegHier_Requant_nD

(q = 5 bits)K-means

Forsythia ( IMG01) 05,78% 04,43% 08,43%

Forsythia ( IMG05) 05,46% 05,38% 09,84%

Forsythia ( IMG08) 05,46% 05,10% 10,43%

Forsythia ( IMG12) 03,65% 04,15% 06,93%

Forsythia ( IMG24) 04,19% 3,86% 09,44%

102

Page 103: SEMINAIRE  LISA

Evaluation de la segmentation

Evaluation des méthodes de segmentation proposées

Discussion des résultats d’évaluation

Conclusion partielle

103

Page 104: SEMINAIRE  LISA

Discussion des résultats d’évaluation

ImsegHier_Floue_nD est meilleur dans l’ensemble que ImSegHier_Requant_nD et K-means

ImSegHier_Requant_nD est moins performant en évaluation non supervisée à cause de la perte d’information due à la requantification mais s’est souvent révélée meilleure en évaluation supervisée

Sur les images de synthèse ImSegHier_Floue_nD et ImsegHier_Requant_nD se sont révélées meilleures que K-means

Sur certaines images réelles K-means s’est révélée souvent meilleure, ce qui confirme que :o Les images synthétiques ne représentent pas toutes les réalités [ Phillip-Foliguet et al., 2002]

o Il n’ y a pas de méthodes universelle pour tout type d’image [Lezoray et Chabrier, 2004]

ImsegHier_Requant_nD est sensible au bruit

104

Page 105: SEMINAIRE  LISA

Evaluation de la segmentation

Evaluation des méthodes de segmentation proposées

Discussion des résultats

Conclusion partielle

105

Page 106: SEMINAIRE  LISA

Conclusion partielle

Les performances d’une méthode de segmentation sont liées au critère d’évaluation choisi .

Nombre de classes

HouseParamètres

segmentationIntra Levine

et NazifBorsotti Zeboudj Rosenberger

5 Θ = 0,50 0,9698 0,1211 0,8424  0,4860 5 Θ = 0,33 0,9625 0,1372 0,7935 0,48645 Θ = 0,25 0,9685 0,1148 0,8114 0,48595 Θ = 0,20 0,9676 0,1225 0,8373 0,48595 Θ = 0,17 0,9680 0,1228  0,8375 0,48595 q = 5 0,9671 0,1450 0,8361   0,48685 q = 6 0,9693 0,1395 0,8384  0,48645 q = 7 0,9701 0,1211 0,8416 0,48598 Θ = 0,50 0,9693 0,0811 0,5331 0,49178 Θ = 0,33 0,9641 0,0864  0,8169 0,49148 Θ = 0,25 0,9398 0,0916 0,8300 0,49138 Θ = 0,20 0,9650 0,0902 0,8612 0,49188 Θ = 0,17 0,9686 0,0833 0,5189 0,49188 q = 5 0,9632 0,0986 0,5297  0,49568 q = 6 0,9575 0,1152 0,5461 0,49438 q = 7 0,9693 0,0807 0,5270 0,4917

106

Page 107: SEMINAIRE  LISA

Conclusion partielle (suite)

Nombre de classes

MandrillParamètres

segmentationIntra Levine

et NazifBorsotti Zeboudj Rosenberger

5 Θ = 0,50 0,9144 0,4043 0,3907 0,49675 Θ = 0,33 0,9115 0,4420 0,5053 0,49465 Θ = 0,25 0,9183 0,3476 0,3439 0,49555 Θ = 0,20 0,9059 0,4122 0,4440 0,49255 Θ = 0,17 0,9220 0,3565 0,4384 0,49215 q = 5 0,8942 0,5270 0,6145 0,49325 q = 6 0,9008 0,5004 0,5675 0,49325 q = 7 0,9132 0,4708 0,4286 0,49678 Θ = 0,50 0,8971 0,4229 0,5126 0,49748 Θ = 0,33 0,8998 0,4075 0,3679 0,49768 Θ = 0,25 0,9054 0,3636 0,4345 0,49718 Θ = 0,20 0,8906 0,4621 0,5168 0,49828 Θ = 0,17 0,9141 0,3102 0,4313 0,49738 q = 5 0,8913 0,4407 0,5934 0,49498 q = 6 0,9004 0,3473 0,5808 0,49578 q = 7 0,9112 0,3253 0,4109 0,4961

107

Page 108: SEMINAIRE  LISA

Conclusion partielle (suite)

Nombre de classes

IRMParamètres

segmentationIntra Levine

et NazifBorsotti Zeboudj Rosenberger

5 Θ = 0,50 0,9356 0,2216 0 0,50905 Θ = 0,33 0,9398 0,2202 0 0,50895 Θ = 0,25 0,8722 0,3167 0 0,51035 Θ = 0,20 0,8240 0,3318 0 0,51075 Θ = 0,17 0,8094 0,3444 0 0,51225 q = 5 0,8768 0,2132 0 0,50985 q = 6 0,9335 0,1793 0 0,50845 q = 7 0,9248 0,2153 0 0,50928 Θ = 0,50 0,9277 0,2786 0 0,50548 Θ = 0,33 0,8963 0,2339 0 0,50518 Θ = 0,25 0,8213 0,3528 0 0,50608 Θ = 0,20 0,8125 0,3853 0 0,50658 Θ = 0,17 0,8297 0,2801 0 0,50648 q = 5 0,8468 0,2373 0 0,50568 q = 6 0,8930 0,1830 0 0,50468 q = 7 0,8766 0,1908 0 0,5044

108

Page 109: SEMINAIRE  LISA

Conclusion partielle (suite)

Nombre de classes

M4Paramètres

segmentationIntra Levine

et NazifBorsotti Zeboudj Rosenberger

8 Θ = 0,50 0,8608 0,6050 0,6071 0,49348 Θ = 0,33 0,8681 0,5063 0,6419 0,49038 Θ = 0,25 0,8443 0,6674 0,7350 0,48208 Θ = 0,20 0,7343 0,6126 0,7184 0,48488 Θ = 0,17 0,7891 0,6026 0,5727 0,49088 q = 5 0,7870 0,4796 0,5942 0,48798 q = 6 0,8007 0,6405 0,6263 0,49078 q = 7 0,8636 0,5121 0,6357 0,4860

10 Θ = 0,50 0,8611 0,6755 0,6071 0,494710 Θ = 0,33 0,8412 0,4799 0,6479 0,491310 Θ = 0,25 0,8355 0,7423 0,7339 0,486410 Θ = 0,20 0,7144 0,5954 0,5815 0,489410 Θ = 0,17 0,7812 0,5705 0,6363 0,492010 q = 5 0,7715 0,4456 0,6026 0,490110 q = 6 0,7942 0,7150 0,6262 0,492610 q = 7 0,8649 0,5436 0,6438 0,4890

109

Page 110: SEMINAIRE  LISA

PLAN Contexte du travail Objectifs Problématique Généralités Etat de l’art Méthodes de segmentation proposées Evaluation de la segmentation Conclusion

110

Page 111: SEMINAIRE  LISA

Nous avons mis en œuvre des approches de classification nD originales du fait de leur caractère vectoriel et de leur compacité mémoire .

Nous avons proposés des solutions intéressantes pour résoudre le problème de sur-segmentation quand le nombre de plans des images est supérieur ou égal à 3.

Les méthodes de segmentations réalisées donnent des résultats encourageants au regard d’autres approches de classification.

Nous avons comparé les résultats de nos algorithmes de segmentation avec différentes méthodes d’évaluation.

Nous avons montré qu’il n’y a pas de méthodes d’évaluation universelle et qu’en fonction des images, les critères d’évaluation privilégient tour à tour certaines méthodes de segmentation.

ImsegHier_Floue_nD et ImsegHier_nD sont paramétrables afin de faire varier le nombre de classes.

Nos algorithmes de classification et d’ECC peuvent être exploités pour réaliser des classifications spatio-colorimétrique

111

Page 112: SEMINAIRE  LISA

JE VOUS REMERCIE POUR VOTRE ATTENTION

112