9
Tutoriaux TNT La Grande Motte 2006 Traitement d’images cours 1 - 1 Yves Usson Analyse d’images numériques en microscopie Yves Usson Reconnaissance et Microscopie Quantitative, Laboratoire TIMC UMR5525 CNRS Institut d’Ingénierie et d’Information de Santé (IN3S), La Tronche

Analyse d’images numériques en microscopiemembres-timc.imag.fr/.../COURS/Analyse-Image-2-2006.pdfTutoriaux TNT La Grande Motte 2006 Traitement d’images cours 1 - 4 Yves Usson

Embed Size (px)

Citation preview

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 1 Yves Usson

Analyse d’images numériques en microscopieYves Usson

Reconnaissance et Microscopie Quantitative, Laboratoire TIMC UMR5525 CNRSInstitut d’Ingénierie et d’Information de Santé (IN3S), La Tronche

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 1 Yves Usson

1 INTRODUCTION .......................................................................................................................... 2

2 SEGMENTATION ......................................................................................................................... 2

2.1 BINARISATION ................................................................................................................................. 22.1.1 APPROCHE RÉGIONS..................................................................................................................... 22.1.2 APPROCHE FRONTIÈRES............................................................................................................... 32.2 FILTRAGE DE FORMES.................................................................................................................... 32.3 ETIQUETAGE EN COMPOSANTES CONNEXES................................................................................ 5

3 EXTRACTION DE MESURES OU PARAMÉTRISATION .................................................. 6

3.1 MORPHOMÉTRIE............................................................................................................................. 63.2 PHOTOMÉTRIE ................................................................................................................................ 73.2.1 MESURE DE L’INTENSITÉ ............................................................................................................. 73.2.2 FLUOROGRAMMES ....................................................................................................................... 8

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 2 Yves Usson

Analyse d’images numériques en microscopie1 Introduction

L’analyse d’images est la séquence d’opérations qui va permettre d’extraire des mesuresquantitatives objectives d’une image numérique. Pouvant être précédée d’une étape de traitement dansun but de restauration du signal, elle peut-être décomposée en trois étapes successives : 1°) lasegmentation qui va permettre de spécifier les structures d’intérêts de l’image et de les extraire sous laforme de masques de mesure, 2°) l’extraction de mesures s’appuyant sur les masques de segmentation,et enfin 3°) l’analyse des données qui relève plus du domaine des statistiques que de l’analyse d’imageà proprement parler.

2 SegmentationDéfinition : Phase d’interprétation d’une image sous forme d’entités décrites en terme de

régions et de contours. La segmentation porte sur l’élaboration de processus de détection, suivie d’unemise en correspondance. La détection inclut l’intégration d’un indice visuel couramment décrit enterme de similarité (région) ou de dissimilarité (frontière). La mise en correspondance concerne leregroupement des points appartenant à une même entité.

La segmentation est de loin la phase la plus délicate de l’analyse d’images car elle doitpermettre d’interpréter la scène aussi bien (voir mieux) que le ferait un observateur. Elle conditionnela pertinence des mesures effectuées. Elle vise donc à définir les zones d'intérêt dans une image. Deuxtypes d'approches sont habituellement utilisées: l'approche par régions et l'approche par frontières. Lebut de ces approches est de créer des images binaires à partir d'images niveaux de gris. C'est-à-dire desimages dans lesquelles il n'existe que deux classes de pixels: les pixels objets qui correspondent auxzones d'intérêts et les pixels fonds qui correspondent à tout ce qui n'est pas zone d'intérêt. Les pixelsobjets définissent des masques binaires qui seront mis à profit pour les mesures morphologiques etphotométriques.

Remarque : Il n’existe pas d’algorithme universel de segmentation, à chaque type d’imagescorrespond une approche spécifique.

2.1 Binarisation

2.1.1 Approche régions

Dans le chapitre précédent, nous avons vu que la distribution des niveaux de gris dans l'imageconstitue déjà une information précieuse que l'on peut mettre à profit pour identifier des régionsparticulières de l'image.

pixels objets

Figure 2.1 - Segmentation, approche par régions. Seuillage de l’histogramme des niveaux de gris.

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 3 Yves Usson

Il est donc possible d'extraire les masques binaires de régions en appliquant un simpleseuillage des niveaux de gris. Ainsi tous les pixels dont les niveaux de gris sont compris entre deuxseuils sont considérés comme des pixels "objets" et tous les autres comme des pixels "fonds". LaFigure 2.1 illustre cette méthode. Sur l'histogramme, on définit une plage (ou fenêtre) de seuillage,avec un seuil minimum à 60 et un seuil maximum à 255. Le masque binaire obtenu est représenté avecles pixels objets en noir. Comme le laissait prévoir l'allure de l'histogramme on a isolé les noyauxfluorescents.

2.1.2 Approche frontières

Dans certains cas, il est difficile de distinguer des zones par leur valeur de niveaux de gris.Cependant il est possible d'en distinguer les frontières. La méthode de segmentation devra tirer parti decette propriété. Dans ce cas, un prétraitement de l'image au moyen d'un filtre numérique permet demettre en évidence les frontières. Différents filtres (Sobel, Prewitt, Laplacien…) ont été développéspour ce type de traitement et tous se basent sur la détection des gradients d'intensité. Ils procèdent enrecherchant dans l'image les zones de plus fortes variations d'intensité.

Figure 2.2 - Segmentation, approche par frontières. Détection des frontières par un filtre degradient puis seuillage des niveaux de gris.

La Figure 2.2 montre le résultat du traitement par un filtre de Sobel. Les zones de fort gradientapparaissent en clair. Il est ensuite possible de seuiller les niveaux de gris de l'image des gradientspour obtenir un masque binaire des frontières.

2.2 Filtrage de formes

Les masques binaires obtenus par les méthodes de segmentation précédemment exposées nesont pas toujours parfaits. Ils peuvent en effet comporter de nombreuses imperfections: élémentsartéfactuels, trous dans les structures, contours déchiquetés…

Ces masques de segmentation ne peuvent donc pas être utilisés directement pour effectuer desmesures. Il faut les corriger afin d'éliminer les éléments artefactuels, boucher les trous dans lesmasques et éventuellement lisser les contours des masques. Ces différentes manipulations sontréalisées à l'aide d'opérateurs morphologiques. Il existe principalement deux opérateursmorphologiques: l'érosion et la dilatation. D'autres opérateurs peuvent être construits en combinantsles deux précédents.

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 4 Yves Usson

L'érosion est une opération qui va avoir tendance à réduire la masse des objets. On considèreque dans une image binaire tous les pixels objets ont une valeur de 1 et les pixels du fond ont unevaleur de 0. Pour chaque pixel (Fig. 2.3) considéré individuellement, on regarde sa valeur et la valeurdes 4 pixels immédiatement voisins (c'est-à-dire ceux partageant une face avec le pixel considéré).Parmi ses valeurs, on recherche la plus petite. Puis, on remplace dans l'image résultat la valeur dupixel considéré par cette valeur minimum. Pour une image binaire, le résultat de ce traitement revient àtransformer en pixels du fond les pixels objets en contact direct avec des pixels du fond. Cela revient à"raboter" d'une couche de pixels les masques des objets.

Figure 2.3 - Filtrage morphologique: érosion. A gauche le masque original: les pixels blancscorrespondent au fond, les noirs à l’objet. Les pixels grisés sont ceux qui seront convertis en pixels dufond par l’érosion. L’érosion consiste donc à propager le fond au détriment de l’objet.

La dilatation est l'opération complémentaire de l'érosion. Dans ce cas (Fig.2.4), on recherchela valeur la grande du voisinage. Pour une image binaire, le résultat de ce traitement revient àtransformer en pixels objets, les pixels du fond en contact direct avec des pixels objets. Cela revientdonc à épaissir d'une couche de pixels les masques des objets.

Figure 2.4 - Filtrage morphologique: dilatation. A gauche le masque original: les pixels blancscorrespondent au fond, les noirs à l’objet. Les pixels grisés sont ceux qui seront convertis en pixelsobjets par la dilatation. La dilatation consiste donc à propager l’objet au détriment du fond.

Les opérations de dilatation et d'érosion peuvent être appliquées itérativement c'est-à-dire defaçon répétitive. Par exemple, une érosion de profondeur 3 consistera à appliquer 3 érosionssuccessives à l'image binaire. Ainsi, on peut faire disparaître des structures dont le rayon est inférieurou égal à 3 pixels. De même, une dilatation de profondeur 3 permettra de boucher les trous dont lerayon est inférieur ou égal à 3 pixels.

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 5 Yves Usson

Figure 2.5 - Filtrage morphologique: fermeture morphologiques. En noir: pixels objets; en blanc:pixels du fond.

La fermeture consiste à appliquer à l'image binaire une dilatation d'une profondeur donnéesuivie d'une érosion de profondeur identique. La dilatation va permettre de boucher les trous desmasques. Par exemple Figure 2.5, la dilatation comble tous les trous dans le masque du noyau.Cependant on constate que le noyau a maintenant une forme empâtée et surdimensionnée. La mesurede paramètres morphologiques sur ce masque serait donc surévaluée. L'érosion qui suit permet decompenser cet épaississement. On constate que le masque du noyau a retrouvé ses dimensionsoriginales alors que son contour apparaît moins échancré. La fermeture a aussi effectué un lissage ducontour.

L'ouverture consiste à appliquer à l'image binaire une érosion d'une profondeur donnée suivied'une dilatation de profondeur identique. L'érosion va permettre d'éliminer les petites structuresisolées. Par exemple Figure 2.6, l'érosion permet de gommer les petits artefacts et ne laisser subsisterque le masque du noyau. L'érosion a cependant sensiblement réduit la masse du noyau et les mesuresmorphométriques seraient sous-évaluées. La dilatation permet de retrouver les dimensions originalesdu noyau.

Figure 2.6 - Filtrage morphologique: ouverture morphologiques. En noir: pixels objets; en blanc:pixels du fond.

2.3 Etiquetage en composantes connexes

Une dernière étape est nécessaire avant de passer à la paramétrisation. Le seuillage et lefiltrage morphologique permettent de définir quelles sont les régions d'intérêt dans l'image. Cependantil est nécessaire dans de nombreux cas de pouvoir distinguer différentes entités au sein de l'imagebinaire afin d'individualiser les mesures.

Figure 2.7 - Etiquetage en composantes connexes. L'opération consiste à attribuer un numérounique à tous les pixels appartenant à un objet isolé. Notion de chemin connexe :c et d peuvent êtrereliés sans avoir à passer par le fond (chemin connexe), alors que a et b ne peuvent être reliés sansavoir à passer sur le fond (chemin non- connexe).

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 6 Yves Usson

Par exemple, si l'on souhaite connaître la surface moyenne d’un noyau il faut pouvoir extraireun par un chacun des masques correspondant à une hématie. Ceci est rendu possible par un étiquetagepréalable de l'image binaire. L'étiquetage consiste à attribuer à chacune des régions séparées(composantes connexes) une étiquette c'est-à-dire un numéro unique qui sera attribué à chacun despixels appartenant à une même composante connexe (Fig. 2.7). La notion de connexité représente icila notion de voisinage par contact direct. En général, on utilise deux règles de connexité:

-la connexité 4 où sont considérés connexes les quatre voisins latéraux (droite, gauche,dessus, dessous);

-la connexité 8 où sont considérés connexes les quatre voisins latéraux (droite, gauche,dessus, dessous) et les quatre voisins diagonaux (Fig. 2.8).

4 connexité 8 connexité

4 connexité 8 connexitéFigure 2.8 - Etiquetage et règles de connexité. En connexité 4 deux objets sont identifiés; en

connexité 8 un seul objet est étiqueté, les deux plages sont connectées par la diagonale.

3 Extraction de mesures ou paramétrisation

3.1 Morphométrie

La morphométrie va consister à effectuer des mesures morphologiques à partir des masquesbinaires. Après extraction du masque d'un objet étiqueté, il est possible d'obtenir directement uncertain nombre de mesures (Fig.3.1). Par exemple la surface de l'objet peut être obtenu par un simplecomptage du nombre de pixels appartenant au masque de l'objet. Connaissant la surface d'un pixel il

est facile d'obtenir une mesure de surface directement exprimée en µm2 par exemple. On peutégalement calculer le barycentre du masque. En effet dans certaines études à caractère histologique ilest souvent intéressant de connaître la position des cellules par référence à une structure histologiqueparticulière (bordure d'un tissu, lumière d'une glande…) ou encore d'étudier la disposition relative decellules dans un tissu sain ou pathologique.

Figure 3.1 - Morphométrie. Extraction de mesures morphologiques à partir du masque binaire oudu contour.

D'autres mesures peuvent être obtenues après extraction du contour du masque. La mesure dupérimètre est dérivée de la séquence de pixels appartenant au contour. Deux pixels consécutifs voisinsen connexité 4 représenteront une distance d'une unité; deux pixels consécutifs voisins par la diagonale

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 7 Yves Usson

représenteront une distance de racine de deux. Connaissant la dimension latérale d'un pixel il est doncpossible de d’exprimer directement la mesure du périmètre en µm. On peut également exprimer lacomplexité de la forme du masque au moyen de l'énergie de courbure, du facteur de forme (oucircularité), des diamètres de ferret…

3.2 Photométrie

3.2.1 Mesure de l’intensité

A partir de l'information photométrique contenue dans l'image des niveaux de gris il va êtrepossible (avec certaines réserves cependant) de mesurer des quantités de matière présente dans lesobjets. En fluorescence l'intensité de lumière dans chaque pixel renseignera sur la concentration de lasonde fluorescente pour peu que le marquage soit stœchiométrique, et les conditions chimiques etd’éclairement soient bien maitrisées. Afin que la quantité de lumière fluorescente ait un sens, il estnécessaire d’effectuer un prétraitement aux images (fig.3.2).

Figure 3.2 -. Correction de l’intensité de fluorescence en chaque pixel. L’intensité du pixel est

divisée par l’intensité du pixel correspondant de l’image d’une source fluorescente homogène.

Deux corrections s’avèrent nécessaires. Premièrement il faut soustraire le courant noir desimages. Cette soustraction est obtenue en enregistrant l’image d’un champ parfaitement obscur enfermant l’obturateur de la caméra. Cette image “ noire ” contient en fait les irrégularités d’intensité liésaux défauts de fabrication du capteur. Ensuite on soustrait pixel par pixel cette image “ noire ” del’image de fluorescence. Ainsi on élimine les faibles variations de signal dues aux imperfections ducapteur. Deuxièmement il faut corriger les défauts liés à l’éclairage du microscope. En effet l’intensitéde la lumière d’excitation varie suivant la position à l’intérieur du champ du microscope. Aussi desvariations d’intensité de fluorescence observées en différents points pourraient ne pas êtresignificatives. Pour corriger ce problème on enregistre l’image d’un champ de fluorescence homogèneappelé référence d’homogénéité. Ceci est obtenu soit avec des verres spéciaux fluorescents (verred’uranyl) ou bien avec des plaques d’altuglass fluorescent (règles d’écolier en plastique fluo) ou bienencore avec des solutions de fluorochromes étalées en film entre lame et lamelle. Une fois cette image

Tutoriaux TNT La Grande Motte 2006

Traitement d’images cours 1 - 8 Yves Usson

enregistrée on divisera pixel par pixel l’image de fluorescence à mesurer par l’image de la référenced’homogénéité.

3.2.2 Fluorogrammes

L'étude de la co-localisation de deux structures protéiques ou nucléiques est une desapplications majeures de la CLSM. Les structures sont marquées par des sondes couplées à desfluorochromes ayant des caractéristiques spectrales d'excitation et d'émission différentes, pour pouvoiracquérir leurs images de façon spécifique. La superposition en couleur des deux images visualise ledegré de co-localisation. Pour un fluorochrome visualisé en rouge, l'autre en vert, les zones co-localisées apparaissent jaunes. Cette première étape n'est pas toujours suffisante pour estimer le degréde co-localisation. Elle peut se compléter efficacement par la réalisation d'un fluorogramme (ouhistogramme bi-paramétrique de fluorescence).

Un fluorogramme est un nuage de points correspondant aux pixels ou aux voxels de l'image2D ou 3D, et dont les coordonnées sont les valeurs de l'intensité de fluorescence de deuxfluorochromes analysés, dans le rouge et le vert par exemple (Fig. 3.3). Il donne une représentationgraphique de la distribution conjointe des deux fluorescences. Le nuage peut correspondre à la totalitéde l'image, à une région comme une cellule en biologie ou à l'environnement immédiat d'un voxel pourconstruire une carte de corrélations locales. Les points se concentrent autour d'une droite dans unesituation de forte co-localisation ou s'écartent du modèle de régression linéaire, quand le niveau de co-localisation s'atténue. C'est une représentation familière en cytométrie de flux pour estimer lepourcentage de cellules doublement positives, le point étant alors une cellule et non un voxel.

Figure 3.3 –F luorogramme de cellules HeLa transfectées avec un plasmide codant pour le EGFP-topoisomérase II. Le canal rouge correspond à une coloration de l’ADN et le canal vert à la GFP. Surquatre cellules présentes, seules deux expriment la topoisomérase et sont à l’origine des nuages depoints c1 et c2 correspondant à leurs noyaux et v correspondant à leurs cytoplasmes. Le nuage rcorrespond aux noyaux des cellules n’exprimant pas la topoisomérase. Le contraste a été inversé pourfaciliter la visualisation des signaux

Plusieurs méthodes de quantification sont dérivées du fluorogramme. On évalue, par exemple,le nombre de points situés dans les zones positives, négatives, simplement ou doublement marqués.On calcule le coefficient de corrélation linéaire ou des coefficients similaires proposés pour mieuxtenir compte de différences d'intensité ou de proportion entre les deux marquages.

Les fluorogrammes permettent d'estimer la co-localisation de deux structures, mais aussi decontrôler les conditions d'acquisitions : correspondance des images, passage de fluorescenced'un canalà l'autre, stabilité de la fluorescence, amélioration du rapport signal/bruit. Ils s'appliquent à desmodalités de fluorescence différentes, spectrales mais aussi temporelles.