34
TECHNIQUE Principe et technique de la tomographie par émission de positons (TEP) O. de Dreuille (Docteur en physique radiologique et médicale) *, P. Maszelin (Spécialiste des hôpitaux des armées), H. Foehrenbach (Professeur agrégé du service de santé des armées), G. Bonardel (assistant des hôpitaux des armées), J.-F. Gaillard (Spécialiste des hôpitaux des Armées) Hôpital d’instruction des Armées du Val de Grâce, service de médecine nucléaire, 74, boulevard de Port-Royal, 75230 Paris cedex 05, France MOTS CLÉS Tomographie par émission de positons ; Médecine nucléaire ; Scintillateur ; Reconstruction tomographique ; Quantification ; Performances ; Contrôle de qualité ; Dosimétrie ; Radioprotection ; Multimodalité KEYWORDS Positron Emission Tomography, Nuclear Medecine; Scintillator; Tomographic reconstruction; Quantification; Performances; Quality control; Dosimetry; Radioprotection; Multimodality Résumé La tomographie par émission de positons (TEP) est une modalité d’imagerie médicale qui mesure la distribution tridimensionnelle d’une molécule marquée par un émetteur de positons. L’acquisition est réalisée par un ensemble de détecteurs répartis autour du patient. Les détecteurs sont constitués d’un scintillateur qui est choisi en fonction de nombreuses propriétés, pour améliorer l’efficacité et le rapport signal sur bruit. Le circuit de coïncidences mesure les deux photons gamma de 511 keV émis dans des directions opposées qui résultent de l’annihilation du positon. Les coupes sont reconstruites par des algorithmes de plus en plus complexes pour s’adapter à des géométries d’acquisition tridimensionnelles. La correction des phénomènes physiques fournit une image représentative de la distribution du traceur. Un examen TEP entraîne pour le patient une dose efficace de l’ordre de 8 mSv. L’installation d’un TEP nécessite un aménagement des locaux pour assurer la radioprotection du personnel. Cette technique est en évolution permanente, tant du point de vue du détecteur que de celui des algorithmes. Une nouvelle génération d’appareils TEP/tomodensitomètre (TDM) offre des informations complémentaires qui permettent de corriger l’atténuation, de localiser les lésions et d’optimiser les procédures thérapeutiques. Tous ces développements font de la TEP un outil pleinement opérationnel, qui a toute sa place au sein de l’imagerie médicale. © 2003 Elsevier SAS. Tous droits réservés. Abstract Positron Emission Tomography (PET) is a medical imaging modality, which provides the in-vivo distribution of a compound labeled by a positron emitter. The acquisition is peformed by a set of detector fitted on a ring. The detector is based on a scintillator chosen in order to optimize the efficiency and the signal to noise ratio. Coincidence detection is dedicated to measure the two 511 keV photons resulting from the annihilation of the positron. Tomographic slices are reconstructed thanks to sophis- ticated algorithms adapted to the tri dimension acquisitions. The quantification of PET images is achieved by the correction of the main physical effects that alter the detection process. For the patient, the effectives doses resulting for a PET examination is about 8 mSv. The installation of a PET device requires specific investments to ensure the radioprotection of the staff. The PET evolution is very fast, this is particularly important for the detectors and for the algorithms. Recently, a new generation of PET/CT devices * Auteur correspondant. Adresse e-mail : [email protected] (O. de Dreuille). EMC-Radiologie 1 (2004) 2–35 www.elsevier.com/locate/emcrad © 2003 Elsevier SAS. Tous droits réservés. doi: 10.1016/S1762-4185(03)00006-2

TECHNIQUE Principe et technique de la tomographie par

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

TECHNIQUE

Principe et technique de la tomographie parémission de positons (TEP)

O. de Dreuille (Docteur en physique radiologique et médicale) *,P. Maszelin (Spécialiste des hôpitaux des armées),H. Foehrenbach (Professeur agrégé du service de santé des armées),G. Bonardel (assistant des hôpitaux des armées),J.-F. Gaillard (Spécialiste des hôpitaux des Armées)Hôpital d’instruction des Armées du Val de Grâce, service de médecine nucléaire, 74, boulevard dePort-Royal, 75230 Paris cedex 05, France

MOTS CLÉSTomographie parémission de positons ;Médecine nucléaire ;Scintillateur ;Reconstructiontomographique ;Quantification ;Performances ;Contrôle de qualité ;Dosimétrie ;Radioprotection ;Multimodalité

KEYWORDSPositron EmissionTomography, NuclearMedecine;Scintillator;Tomographicreconstruction;Quantification;Performances;Quality control;Dosimetry;Radioprotection;Multimodality

Résumé La tomographie par émission de positons (TEP) est une modalité d’imageriemédicale qui mesure la distribution tridimensionnelle d’une molécule marquée par unémetteur de positons. L’acquisition est réalisée par un ensemble de détecteurs répartisautour du patient. Les détecteurs sont constitués d’un scintillateur qui est choisi enfonction de nombreuses propriétés, pour améliorer l’efficacité et le rapport signal surbruit. Le circuit de coïncidences mesure les deux photons gamma de 511 keV émis dansdes directions opposées qui résultent de l’annihilation du positon. Les coupes sontreconstruites par des algorithmes de plus en plus complexes pour s’adapter à desgéométries d’acquisition tridimensionnelles. La correction des phénomènes physiquesfournit une image représentative de la distribution du traceur. Un examen TEP entraînepour le patient une dose efficace de l’ordre de 8 mSv. L’installation d’un TEP nécessite unaménagement des locaux pour assurer la radioprotection du personnel. Cette techniqueest en évolution permanente, tant du point de vue du détecteur que de celui desalgorithmes. Une nouvelle génération d’appareils TEP/tomodensitomètre (TDM) offre desinformations complémentaires qui permettent de corriger l’atténuation, de localiser leslésions et d’optimiser les procédures thérapeutiques. Tous ces développements font de laTEP un outil pleinement opérationnel, qui a toute sa place au sein de l’imagerie médicale.

© 2003 Elsevier SAS. Tous droits réservés.

Abstract Positron Emission Tomography (PET) is a medical imaging modality, whichprovides the in-vivo distribution of a compound labeled by a positron emitter. Theacquisition is peformed by a set of detector fitted on a ring. The detector is based on ascintillator chosen in order to optimize the efficiency and the signal to noise ratio.Coincidence detection is dedicated to measure the two 511 keV photons resulting fromthe annihilation of the positron. Tomographic slices are reconstructed thanks to sophis-ticated algorithms adapted to the tri dimension acquisitions. The quantification of PETimages is achieved by the correction of the main physical effects that alter the detectionprocess. For the patient, the effectives doses resulting for a PET examination is about8 mSv. The installation of a PET device requires specific investments to ensure theradioprotection of the staff. The PET evolution is very fast, this is particularly importantfor the detectors and for the algorithms. Recently, a new generation of PET/CT devices

* Auteur correspondant.Adresse e-mail : [email protected] (O. de Dreuille).

EMC-Radiologie 1 (2004) 2–35

www.elsevier.com/locate/emcrad

© 2003 Elsevier SAS. Tous droits réservés.doi: 10.1016/S1762-4185(03)00006-2

has been developed to benefit of the complimentarity of both modalities. The CT imagescan be used for attenuation correction, to localize the lesion detected by PET and tooptimize the therapeutical procedures. Thanks to all these developments, PET is apowerful diagnostic tool among the other medical imaging modalities.

© 2003 Elsevier SAS. Tous droits réservés.

Introduction

L’intérêt des émetteurs de positons en médecinenucléaire est connu depuis plusieurs années.7 Lesémetteurs de positons sont des isotopes radioactifs(11C,13N,15O,18F) qui peuvent facilement être incor-porés aux molécules, sans altérer leurs propriétésbiologiques. Les premières molécules marquées au18F ont été synthétisées à la fin des années 1970.66

À la même époque ont été construits les premierstomographes à émission de positons (caméras TEP)utilisables dans un environnement clinique.80 De-puis les années 1970, de nombreux travaux effec-tués par les centres de recherche et les industrielsont permis le développement de TEP permettant deréaliser des examens corps entier, dans des condi-tions de résolution et de sensibilité adap-tées.22,23,79 Dans le même temps, les progrès del’informatique et de l’algorithmique permettentd’effectuer des reconstructions tomographiques, àpartir de projections mesurées dans des géométriesd’acquisition de plus en plus complexes.Jusqu’à la dernière décennie, la TEP était dispo-

nible uniquement dans les centres équipés d’uncyclotron capable de produire les différents isoto-pes. Cependant, le rôle aujourd’hui croissant de laTEP en cancérologie se traduit par la diffusionrapide de cette modalité d’imagerie médicale dansdes structures hospitalières distinctes des centresde recherche. Le fonctionnement de ces structuresrepose sur l’installation d’une caméra TEP, et lamise en place d’un réseau de distribution de radio-phamaceutiques marqués par le 18F, caractérisépar une période radioactive de 110 minutes.32 Lamolécule la plus largement utilisée est le fluoro-déoxyglucose marqué au fluor 18 (18FFDG) en raisonde ses nombreuses indications. Ce traceur, analo-gue du glucose, apporte des réponses essentiellesdans la prise en charge et le suivi des patientsatteints de maladies néoplasiques.5,10,68,83

La réalisation d’un examen TEP est le résultatd’un ensemble d’opérations, depuis la productionde l’isotope, la synthèse de la molécule, l’injectiondu traceur radioactif, la détection des rayonne-ments, la reconstruction tomographique, et enfinl’enchaînement d’un ensemble de corrections afinde fournir une image représentative de la distribu-tion du traceur au sein du patient. Ces différents

éléments sont présentés au cours de cet article. Ledernier chapitre de cet article présente une nou-velle génération d’appareils composés d’un TEP etd’un tomodensitomètre (TDM).Comme nous le verrons, la TEP est une modalité

d’imagerie médicale en perpétuelle évolution. Lesderniers développements permettent d’envisagerdes acquisitions corps entier TEP/TDM en moins de20 minutes.

Émetteurs de positons

De la même manière que pour les autres examensde médecine nucléaire, la réalisation d’un examenTEP nécessite l’injection d’un traceur radioactif.Un traceur est constitué d’un vecteur moléculaireet d’un isotope radioactif qui permet de localiser ladistribution de la molécule au sein de l’organisme.Le choix d’un isotope est déterminé d’une part enfonction des propriétés chimiques qui condition-nent la possibilité de marquage et, d’autre part,selon le mode de désintégration qui permet unedétection externe du rayonnement émis. La supé-riorité des émetteurs de positons par rapport auxémetteurs de photons gamma existe pour les deuxcritères précédents : marquage biochimique et dé-tection externe.

Isotopes émetteurs de positons

Les caractéristiques physiques des principaux isoto-pes utilisés en TEP sont résumées dans le Tableau 1.Les émetteurs de positons les plus utilisés en TEP

peuvent être répartis en trois groupes, en fonctionde leurs caractéristiques physiques et de leur pé-riode radioactive.63 La période radioactive oudemi-vie correspond à la durée nécessaire pour quel’activité d’une source soit divisée par deux.On distingue tout d’abord l’oxygène 15 (15O),

l’azote 13 (13N) et le carbone 11 (11C), de périodesrespectives de 2, 10 et 20 minutes. Ces isotopes,constitutifs de l’ensemble des composés biologi-ques, permettent de réaliser des marquages effica-ces pour un grand nombre de molécules. Comptetenu de leur courte durée de vie, la production desisotopes et la synthèse du traceur doivent êtreréalisées rapidement, et à proximité immédiate du

3Principe et technique de la tomographie par émission de positons (TEP)

lieu de réalisation des examens TEP.69 L’utilisationde ces isotopes est limitée aux centres de recher-che multidisciplinaires, disposant de radiochimistesassurant la production du traceur, d’ingénieurs etde médecins pour la réalisation des examens d’ima-gerie.On distingue ensuite les émetteurs dont la pé-

riode varie de 1 à plusieurs heures. La production etle marquage peuvent être réalisés par un labora-toire radiopharmaceutique. Le traceur peut êtreensuite distribué dans des centres cliniques dispo-sant d’un TEP. L’isotope le plus utilisé est le fluor18 (18F), qui a une durée de vie de 120 minutes. Le18FFDG, analogue du glucose, est actuellement lamolécule la plus largement employée dans les cen-tres TEP cliniques. Ses avantages sont nombreux etbien décrits dans la littérature, en particulier pourson utilisation en oncologie. D’autres moléculesmarquées au 18F sont actuellement disponibles etpermettent d’étendre le champ clinique des indica-tions de la TEP. Le brome 76 (76Br) est caractérisépar une période de 16 heures, mais également parune énergie d’émission des positons relativementélevée. La combinaison de ces deux phénomènesentraîne une majoration des doses reçues par lepatient par rapport au 18F. Pour des raisons dosimé-triques, le 76Br n’est pas recommandé pour desexamens diagnostiques, en revanche, son utilisa-tion a été évoquée pour des applications thérapeu-tiques.

Le dernier groupe concerne des isotopes qui peu-vent avoir des périodes très courtes, mais qui sontissus de générateurs isotopiques de longues pério-des. Les plus importants sont le gallium 68 (68Ga),dont la période est de 68 minutes (issu du germa-nium 68 de période de 271 jours), et le rubidium 82(82Rb), dont la période est de 76 secondes (issu dustrontium 82 de période de 25 jours).

Du fait de leurs longues durées de vie, le 68Ge(271 jours) et le sodium 22 (2,6 ans) sont utiliséspour effectuer les mesures de transmission et/oupour les procédures de calibration en TEP.

Radioactivité �+ et détection des �+

Les émetteurs de positons sont caractérisés par unexcès de charge positive dans leurs noyaux. Ils sedésintègrent vers un état stable, par une transfor-mation d’un proton en un neutron qui conduit àl’émission d’un neuvrino et d’un positon. Celui-ciest de masse égale à celle d’un électron mais decharge opposée. Une fois émis, le positon parcourtquelques millimètres dans les tissus, au cours des-quels il perd toute son énergie cinétique. Quand lepositon est au repos, il interagit avec un électron dumilieu, suivant une réaction d’annihilation au coursde laquelle la masse des deux particules se trans-forme en deux photons gamma de 511 keV, émisdans des directions opposées (Fig. 1).

Le principe de base de la TEP consiste à détecterles deux photons de 511 keV pour déterminer le lieude la réaction d’annihilation. L’information mesu-rée correspond au lieu d’annihilation et non à celuide l’émission b+. La distance entre ces deux lieuxest appelée libre parcours moyen du positon, elleest déterminée par l’énergie d’émission des posi-tons, et constitue une limite en termes de résolu-tion spatiale.53 Le libre parcours moyen du positonest de 0,5 mm pour le 18F et de 2,7 mm pour le 15O.

Une autre limite intrinsèque, en termes de réso-lution spatiale en TEP, provient de la non-colinéarité des deux photons de 511 keV, résultantde l’annihilation d’un positon qui n’a pas intégrale-ment perdu son énergie cinétique. Ce défaut decolinéarité peut être de l’ordre de 0,5°.

La combinaison de ces deux phénomènes consti-tue une limite intrinsèque en termes de résolutionspatiale, propre à la détection en coïncidence,mais qui, pour le 18F, est inférieure au millimètre.Cependant, comme cela sera présenté ultérieure-ment, la résolution spatiale d’un TEP dépend essen-tiellement de la taille des détecteurs élémentaires.

Tableau 1 Caractéristiques physiques des principaux isoto-pes émetteurs de positons utilisés en tomographie par émis-sion de positons (TEP). L’énergie cinétique d’émission despositons ( b+) conditionne le libre parcours de cette particuleavant la réaction d’annihilation. La période radioactive, oudemi-vie, relativement brève du 11C,13 N,15 O empêche l’uti-lisation des molécules marquées par ces isotopes à distancedu site de production. Compte tenu de la durée de vie de110 minutes, il est possible d’utiliser des molécules marquéesau 18F dans des centres cliniques qui ne disposent pas d’uncyclotron.

Isotopes 11C 13N 15O 18F 76BrÉnergie cinétiquemaximale des b+

(MeV)

0,98 1,19 1,72 0,63 3,98

Énergie cinétique laplus probable des b+

(MeV)

0,39 0,49 0,73 0,25 1,2

Libre parcoursmaximal dans l’eau(mm)

3,9 5 7,9 2,3 20

Libre parcoursmoyen dans l’eau(mm)

1,1 1,5 2,7 0,6 5

Période desradioéléments (min)

20,4 10,0 2,1 109,8 972

11C : carbone 11 ;13 N : azote 13 ;15 O : oxygène 15 ;18 F : fluor18 ;76 Br : brome 76.

4 O. de Dreuille et al.

Détecteur en tomodensitométrie parémission de positons

L’obtention d’une image en TEP s’effectue en deuxétapes :

• la mesure des projections de l’objet, en utili-sant le principe de la détection en coïnci-dence ;

• la reconstruction tomographique, qui permetl’obtention de la distribution tridimensionnelledu traceur.

Description généraled’une tomodensitométrie par émissionde positons

La figure 2 présente les différents modules quiconstituent un tomographe à émission de positons.La plupart des TEP sont constitués d’une série decouronnes de détecteurs élémentaires répartis enanneau autour du patient.45 Chaque détecteur estconstitué d’un cristal scintillateur et d’un photo-multiplicateur, optimisés pour la détection desphotons gamma. Le circuit électronique, ou circuitde coïncidence, permet de déterminer au moyen de

γ = 511 keV

γ = 511 keVd

e-

β+

α

180°

Figure 1 Désintégration du positon et réaction d’annihilation. Une fois émis, le positon (+) parcourt quelques millimètres (d) dans lestissus, durant lesquels il perd toute son énergie cinétique. Quand le positon est pratiquement au repos, il interagit avec un électron(e-) du milieu, suivant une réaction d’annihilation au cours de laquelle la masse des deux particules se transforme en deux photonsgamma (c) de 511 keV, émis dans des directions opposées.

Figure 2 Les différents modules d’un tomographe à émission de positons. La formation de l’image résulte de la détection des deuxphotons c de 511 keV émis lors de la réaction d’annihilation. Pour y parvenir, des détecteurs élémentaires sont répartis en anneauautour du patient (I). Le circuit électronique accepte la coïncidence si les deux événements arrivent dans une fenêtre temporelle del’ordre de 10 ns, et si les deux photons ont une énergie voisine de 511 keV (II). La dernière étape (III) est constituée par lareconstruction des données, permettant d’obtenir l’image de la distribution radioactive au sein du patient.

5Principe et technique de la tomographie par émission de positons (TEP)

deux détecteurs élémentaires la projection du lieud’annihilation. Le traitement de ces informationsdoit être extrêmement rapide, compte tenu destaux de comptage rencontrés en pratique. L’infor-mation mesurée par le circuit de coïncidence estalors positionnée dans une matrice, ou sino-gramme, qui contient l’ensemble des éléments deprojection d’une coupe de l’objet. Les images sontobtenues par reconstruction tomographique sur desstations informatiques puissantes équipées d’uneapplication logicielle permettant l’analyse et laquantification des images.

Principes élémentaires de la détection

Toute désintégration d’un positon se caractérisepar l’émission de deux photons gamma de 511 keVdans des directions opposées. Cette propriété estintrinsèquement utilisée par les TEP pour détermi-ner la projection du lieu d’annihilation, au moyende deux détecteurs indépendants qui mesurentquasi simultanément deux photons de 511 keV.L’électronique de détection, ou circuit de coïnci-dence, est fondée sur deux critères : une fenêtretemporelle, de l’ordre de 6 à 15 ns, et une fenêtreen énergie. Ce système mesure les coïncidencesvraies, qui correspondent à la détection des deuxphotons de 511 keV provenant d’une même annihi-lation (Fig. 3). En raison des imperfections de l’ap-pareil de mesure en résolution en énergie et enrésolution temporelle, le circuit de coïncidenceenregistre de nombreux événements parasites quigénèrent du bruit de mesure.Le rôle de chaque détecteur élémentaire

consiste à arrêter le rayonnement, à déterminerl’énergie du photon incident et le moment où il aété détecté. La densité, la résolution en énergie etla résolution temporelle des détecteurs condition-nent les performances des différents instruments.Les détecteurs sont constitués d’un ou plusieurs

cristaux scintillateurs, couplés à un ou plusieurstubes photomultiplicateurs (PM). Tout photon en-trant dans la chaîne de détection est analysé indi-viduellement (Fig. 4). Il interagit avec les électronsdu cristal en cédant son énergie, soit en totalité pareffet photoélectrique, soit en partie par effetCompton. Ces derniers vont exciter d’autres élec-trons du réseau cristallin, et générer des mécanis-mes de scintillation. L’énergie lumineuse ainsicréée est proportionnelle à l’énergie déposée dansle cristal. Elle est ensuite dirigée vers la photoca-thode du tube photomultiplicateur au travers d’unguide de lumière. Le rôle de la photocathode est deconvertir l’énergie lumineuse en électrons. Cesderniers sont accélérés et focalisés sur la premièredynode, où le nombre d’électrons est multiplié par

le facteur d’émission secondaire. Ce processus demultiplication est identique pour les dynodes sui-vantes. Le signal en sortie du PM fournit une impul-sion électrique mesurable, dont l’intégrale est pro-portionnelle à l’énergie du photon déposée dans lecristal.La durée d’intégration dépend de la rapidité de

la décroissance de la lumière au sein du cristal.Pendant cette durée, le détecteur élémentaire estdans l’impossibilité de mesurer un autre événe-ment. Ce phénomène, ou temps mort, est respon-sable des pertes en sensibilité pour des taux decomptage élevés.

Choix du scintillateur

Le scintillateur idéal pour la TEP doit être caracté-risé par :57

• une densité élevée, pour offrir une efficacitéde détection satisfaisante pour les photons de511 keV (énergie trois à quatre fois supérieureà celle des gamma du technétium 99m large-ment utilisé en médecine nucléaire) ;

• une efficacité de conversion lumineuse impor-tante, c’est-à-dire un nombre de photons descintillation important par rayonnementgamma détecté. Ce paramètre influe directe-ment sur la résolution en énergie du scintilla-teur, et donc sur le taux de coïncidences diffu-sées ;

Figure 3 Nature des événements enregistrés en mode coïnci-dence. La détection des deux photons c de 511 keV résultantd’une annihilation correspond à une coïncidence vraie (annihi-lation a). L’absence de détection d’au moins un des deux pho-tons entraîne l’absence de mesure d’une ligne de réponse, il enrésulte une plus faible efficacité de détection (annihilation b).Du fait de la résolution en énergie limitée des scintillateurs, unefraction des photons ayant subi une diffusion Compton estacceptée, il en résulte l’enregistrement de coïncidences diffu-sées (annihilation c). La détection de deux photons c de 511 keVdans la fenêtre temporelle de coïncidence résultant de deuxannihilations distinctes entraîne la mesure d’une coïncidencealéatoire (événement d). Les coïncidences aléatoires et diffu-sées sont des sources de bruit qu’il convient de limiter et decorriger.

6 O. de Dreuille et al.

• une faible constante de décroissance, c’est-à-dire l’émission d’un grand nombre de photonslumineux par unité de temps ; elle conditionnela résolution temporelle du système de détec-tion et réduit le temps mort relatif à chaquemesure ;

• une bonne transparence par rapport aux pho-tons de scintillation, afin que ceux-ci ne soientpas atténués dans le milieu avant la surfaced’entrée du PM. Par ailleurs, le spectre d’émis-sion des photons de scintillation doit être com-

patible avec la réponse spectrale de la photo-cathode du PM ;

• des propriétés physiques favorables et, en par-ticulier, il est préférable que les scintillateurssoient non hygroscopiques, insensibles à latempérature et facilement produits et usinés.Par ailleurs, le coût des matériaux influe direc-tement sur le prix des appareils proposés.Les caractéristiques essentielles des principaux

scintillateurs utilisés pour la TEP sont récapituléesdans le Tableau 2.

Caractéristiques d’atténuationLes paramètres d’atténuation du rayonnement de511 keV dépendent de la densité du matériau et dela densité d’électrons estimée par le numéro ato-mique effectif (Zeff). L’épaisseur du scintillateurpeut être d’autant moins importante que le coeffi-cient d’atténuation (l) est élevé. Cette propriétépermet de diminuer la taille des détecteurs élé-mentaires, et donc d’améliorer la résolution spa-tiale du système. La photofraction est le pourcen-tage d’effet photoélectrique par rapport auxinteractions des photons de 511 keV dans le scin-tillateur. Ce paramètre est essentiel, puisque seu-les les interactions photoélectriques sont caracté-risées par un dépôt d’énergie de 511 keV dans ledétecteur (annihilation a de la Fig. 3). Lorsque lephoton incident subit une diffusion Compton dansle scintillateur, il en résulte un dépôt d’énergieinférieur à celui obtenu par effet photoélectrique(annihilation b de la Fig. 3). Cet événement estéliminé par la chaîne de mesure ; il en résulte uneperte en efficacité. Parmi les différents scintilla-teurs utilisés en TEP, le germanate de bismuth(BGO) est un des matériaux qui possède le plusgrand Zeff. L’orthosilicate de lutétium (LSO) et l’or-thosilicate de gadolinium (GSO) sont légèrementmoins denses que le BGO. L’iodure de sodium dopéau thallium (Na [Tl]) est le scintillateur le moins

Figure 4 Principe de fonctionnement d’un détecteur élémen-taire. Un détecteur élémentaire est composé d’un scintillateuret d’un tube photomultiplicateur. Le scintillateur a pour objec-tif d’arrêter le rayonnement c et de produire des photons descintillation. Ceux-ci sont collectés et convertis en électrons parla photocathode du photomultiplicateur. Les différentes élec-trodes du photomultiplicateur entraînent une amplification dusignal électronique. La durée d’intégration dépend de la rapi-dité de la décroissance de la lumière au sein du cristal. Pendantcette durée, le détecteur élémentaire est dans l’impossibilité demesurer un autre événement. Ce phénomène, ou temps mort,est responsable des pertes en sensibilité pour des taux decomptage élevés.

Tableau 2 Caractéristiques des principaux scintillateurs utilisés en tomographie par émission de positons (TEP). Les paramètresd’atténuation à 511 keV conditionnent l’efficacité de détection : Zeff tient compte de la densité électronique, l est le coefficientd’atténuation du scintillateur à 511 keV, et la photofraction renseigne sur la proportion d’interactions photoélectriques. Lespropriétés de l’émission lumineuse déterminent la résolution temporelle et la résolution en énergie des appareils.

NaI (T1) BGO BaF2 GSO LSO LuApParamètres d’atténuationà 511 keV

Densité (g/cm3) 3,67 7,13 4,9 6,71 7,35 8,34Zeff 50 73 58 65 65l à 511 keV 0,38 0,90 0,45 0,67 0,80 0,91Photofraction (%) 18 42 19 26 33 32

Caractéristiques del’émission lumineuse

Constante de temps(ns)

230 300 0,8 60 (90 %) 40 18630 600 (10 %)

Rendement lumineuxrelatif

100 22 5 20 75 2521

NaI (T1) : iodure de sodium dopé au thallium ; BGO : germanate de bismuth ; BaF2 : fluorure de baryum ; GSO : orthosilicate degadolinium ; LSO : orthosilicate de lutétium ; LuAp : luthetium aluminium Perovskite ; Zeff : numéro atomique.

7Principe et technique de la tomographie par émission de positons (TEP)

dense, il est cependant utilisé pour certaines camé-ras TEP en raison de son faible coût de production.Le luthetium aluminium perovskite (LuAp) est unscintillateur en développement, prometteurpuisqu’il est caractérisé notamment par une den-sité élevée.

Caractéristiques de l’émission lumineuseLes caractéristiques de l’émission lumineuse desdifférents scintillateurs doivent être analysées endétail puisqu’elles conditionnent la durée de lafenêtre de coïncidence, le temps mort du systèmeet la résolution en énergie. Elles influent directe-ment sur le taux de coïncidences parasites mesu-rées par le TEP.La constante de temps de décroissance de la

scintillation lumineuse doit être rapide, afin deréduire la fenêtre temporelle de coïncidence, etainsi rejeter un nombre important de coïncidencesaléatoires. L’enregistrement d’une coïncidencealéatoire est la conséquence de la détection dedeux photons gamma de 511 keV mesurés pendantla fenêtre temporelle, mais provenant de deuxdésintégrations de positons différents (coïncidenced sur la Fig. 3). L’information spatiale véhiculée parcette mesure est incorrecte, et se traduit par unniveau de bruit supplémentaire dans l’image. LeBGO et le Na (Tl) sont caractérisés par des constan-tes de temps relativement lentes, ce qui entraînel’utilisation de fenêtres de coïncidence de l’ordrede 12 ns. L’arrivée des nouveaux scintillateurs(LSO, GSO et LuAp), significativement plus rapides,permet de réduire la fenêtre de coïncidence à 6 nsenviron pour les systèmes équipés de LSC.58

La constante de décroissance influe sur le tempsmort du détecteur élémentaire pendant lequel il luiest impossible de mesurer un autre événement. Parailleurs, plus la surface utile du détecteur élémen-taire est réduite, plus la probabilité de mesurer unautre photon est faible.Le rendement lumineux correspond au nombre

de photons de scintillation émis par photon arrêtédans le scintillateur. Cette caractéristique est sou-vent exprimée de manière relative par rapport auNa (Tl), qui possède un rendement lumineux trèsimportant. Un rendement lumineux élevé permetune meilleure détection de l’interaction, et s’ac-compagne généralement d’une bonne résolution enénergie. Une résolution en énergie limitée imposel’utilisation d’une fenêtre spectrométrique plus oumoins large, qui entraîne l’enregistrement des pho-tons ayant subi une interaction Compton au sein dupatient (coïncidence c sur la Fig. 3). La perted’énergie résultant de la diffusion Compton estinsuffisante pour être détectée par le scintillateur.Elle entraîne un changement de direction du pho-

ton, qui conduit à la mesure d’une coïncidencediffusée et à une mauvaise localisation de la pro-jection du lieu d’annihilation.Le principal avantage du Na (Tl) réside dans sa

bonne résolution en énergie, qui est de l’ordre de10 %. Le BGO est caractérisé par une résolution enénergie relativement médiocre de l’ordre de 16 %.Le LSO et le GSO ont des caractéristiques en termesde résolution en énergie intermédiaires entre le Na(Tl) et le BGO.Actuellement, le BGO équipe plus de la moitié

des caméras TEP installées, essentiellement en rai-son de sa densité élevée, mais ce scintillateur estcaractérisé par une constante de décroissancelente et une résolution en énergie médiocre. Larecherche de nouveaux scintillateurs ayant des ca-ractéristiques plus favorables pour la TEP permetdéjà l’utilisation du LSO et du GSO au sein de TEPcommercialisés. Le LuAp, ainsi que d’autres maté-riaux sont étudiés en laboratoire afin d’améliorerencore les performances des machines de nouvellegénération.52

Malgré la faible densité du Na (Tl), ce scintilla-teur est employé sur les TEP, en raison de son faiblecoût, et également dans le dessein de transformerles gamma-caméras en appareils polyvalents, per-mettant à la fois l’imagerie des émetteurs gammaet des émetteurs de positons.

Information temps de volLe fluorure de baryum (BaF2) est caractérisé pardeux émissions lumineuses, dont l’une a une cons-tante de décroissance extrêmement brève de0,8 ns.3,50 Le principe de l’acquisition temps de volrepose sur l’écart de temps d’arrivée des photonsgamma sur les deux détecteurs. Connaissant cetemps et la vitesse de la lumière, il est possible dedéterminer le lieu de l’annihilation le long de laligne de réponse qui joint les détecteurs élémentai-res. En pratique, la résolution temporelle permetde localiser la source sur la ligne de mesure avecune précision de 7,5 cm. Cette information peutalors être exploitée au niveau de l’algorithme dereconstruction d’images, qui doit être adapté afinde prendre en compte cette information. Cepen-dant, la faible densité du BaF2 et son rendementlumineux relativement faible pour la constante dedécroissance rapide, ne permettent pas de réaliserde petits détecteurs élémentaires. C’est la raisonpour laquelle ce scintillateur n’est plus utilisé dansles caméras TEP actuelles.

Conception du détecteur

Quels que soient les systèmes proposés, le détec-teur est constitué de scintillateurs et de photodé-

8 O. de Dreuille et al.

tecteurs. Les différents assemblages mis en œuvresont résumés sur la figure 5.La solution la plus simple consiste à associer un

photomultiplicateur à chaque scintillateur(Fig. 5A). L’inconvénient de ce type de couplageréside dans la taille des PM, qui ne permet pasd’effectuer un assemblage avec des cristaux depetites dimensions. Cela se traduit par une mau-vaise résolution spatiale du tomographe, puisque lataille des détecteurs élémentaires conditionnel’échantillonnage des données mesurées et l’épais-seur des coupes. Néanmoins, ce couplage a étélargement utilisé pour les caméras TEP de premièregénération.Le remplacement du PM par une diode à avalan-

che, caractérisée par une petite taille, permet deréaliser des couplages efficaces avec des petitsdétecteurs élémentaires (Fig. 5B). Ce type de mon-tage est utilisé sur des TEP dédiés à l’imagerie dupetit animal développée dans des centres de re-cherche.70 Les diodes à avalanches ne sont pasencore utilisées sur les TEP cliniques en raison deleurs efficacités plus faibles que celles des PM.Le détecteur bloc est la solution la plus utilisée

sur les tomographes équipés de BGO ou de LSO(Fig. 5C). Ce type de détecteur, proposé dès 1986,permet le couplage efficace entre une matrice depetits cristaux élémentaires de quelques millimè-tres de dimension, et un réseau de quelques PM.14

Le détecteur bloc a été conçu pour améliorer larésolution spatiale et réduire l’épaisseur des cou-pes, qui dépendent de la taille de chacune descases de mesure. À titre d’exemple, les détecteursblocs de la caméra TEP Siemens ECA® l’EXAC™ HR+sont divisés en 64 cases élémentaires (8 × 8) etcouplés avec quatre PM. La taille de la case demesure est de 4,05 mm dans la direction tangen-

tielle, de 4,39 mm dans la direction radiale (épais-seur de coupe) et de 30 mm d’épaisseur. Le TEP estconstitué de quatre rangées de 72 blocs, qui sontrépartis en couronne autour du patient. Au total,une projection d’un plan de coupe est échantillon-née par 576 cases de mesure.11

La localisation de l’interaction du photon gammadans un scintillateur peut être également détermi-née au moyen du principe d’Anger, qui est employésur l’ensemble des gamma-caméras. Ce mode dedétection est fondé sur l’emploi d’un monocristalde Na (Tl), couplé à un réseau de PM au moyen d’unguide de lumière (Fig. 5D). La position de l’interac-tion est déterminée par le barycentre des intensi-tés mesurées par l’ensemble des PM. Contraire-ment au couplage direct et au détecteur bloc, lataille des pixels et l’épaisseur des coupes sontdéterminées de manière continue, en fonction dela matrice d’échantillonnage appliquée au détec-teur. Les deux limites de ce mode de détection sontla faible densité du Na (Tl), et le temps mortrésultant de la taille importante du monocris-tal.19,20 En revanche, l’avantage essentiel de cetype de couplage réside dans la possibilité d’obte-nir des grandes surfaces de détection pour un coûtmodéré. Le développement de monocristaux de Na(Tl) « pixélisés » permet d’augmenter l’épaisseurdu scintillateur (25 mm), tout en limitant la dégra-dation de la résolution spatiale. Il en résulte uneamélioration de l’efficacité et des performances entaux de comptage.28,81

Une nouvelle conception de couplage a été pro-posée afin de combiner des scintillateurs discrets etun réseau de PM.77 Ces scintillateurs sont des paral-lélépipèdes de GSO couplés par un guide de lumièreà un réseau de PM (Fig. 5E). Les avantages de cemode de détection résident dans l’utilisation de

Figure 5 Principaux couplages scintillateurs/photodétecteurs employés sur les tomographies par émission de positons. Les dimen-sions du scintillateur conditionnent l’échantillonnage des données : la largeur (l) correspond à la taille de la cellule de mesure dansle plan de l’anneau, la dimension (z) conditionne l’épaisseur de la coupe, et la hauteur (h) influe sur l’efficacité de détection.A. Couplage scintillateur-photomultiplicateur (PM). Du fait de la taille des PM, ce type de montage ne permet pas l’utilisation descintillateur de petite dimension.B. Le remplacement du PM par une diode à avalanche permet d’effectuer des couplages avec des scintillateurs de petite taille.C. L’utilisation d’un bloc détecteur permet de réaliser le couplage entre une matrice de petits détecteurs élémentaires et un réseaude quelques PM.D. L’emploi d’un monocristal et du principe de localisation d’Anger permet un échantillonnage continu des données.E. Le couplage entre une matrice de parallélépipèdes de scintillateurs et un réseau de PM constitue une nouvelle conception dedétecteurs pour la TEP.

9Principe et technique de la tomographie par émission de positons (TEP)

scintillateurs de GSO discrets et rapides qui limi-tent le temps mort du système.

Mode d’acquisition et reconstructiontomographique

Principe de base de la tomographie

Quelle que soit la conception des différents instru-ments, la mesure des données correspond systéma-tiquement à la projection du lieu des annihilationssurvenant au sein de l’objet dont on fait l’image.Une étape de reconstruction tomographique estnécessaire pour déterminer l’objet à partir de sesprojections. Les méthodes utilisées en TEP sont,d’un point de vue mathématique, similaires à cellesde la TDM ou de la tomographie d’émission réaliséeavec des émetteurs de photons gamma.

Rangement des données entomodensitométrie par émissionde positons : sinogramme

Tous les éléments de projection d’une coupe del’objet sont rangés dans une matrice appelée sino-gramme. Chaque ligne de cette matrice correspondà la projection monodimensionnelle de la coupepour un angle φparticulier. Cette matrice a autantde lignes que d’angles de mesure, et autant decolonnes que de cases de mesure pour une positionangulaire. D’une manière générale, la taille dessinogrammes est de l’ordre de 256 (angles) par 192(points de mesure pour une position angulaire).Un point du sinogramme correspond à une ligne

de réponse entre deux détecteurs élémentaires

(entre dA et dB sur la Fig. 6). L’information reportéedans ce pixel (s1, φ1) correspond à l’intégrale desémissions des photons de 511 keV émis suivantcette incidence, pour tous les points de l’objetsitués sur la ligne de réponse. La ligne de réponseest un tube de section rectangulaire, dont les di-mensions sont en relation avec la taille des détec-teurs élémentaires. Chaque événement acceptépar le circuit de coïncidence incrémente d’uneunité le pixel du sinogramme correspondant à laligne de réponse entre les deux détecteurs élémen-taires. L’étape de mesure en TEP consiste alors àremplir les différents pixels du sinogramme. L’ac-quisition des données résulte d’un comptage dontles fluctuations statistiques sont régies par la loi dePoisson.En résumé, un sinogramme contient l’ensemble

des éléments de projection d’une tranche de l’ob-jet. La reconstruction tomographique consiste àcalculer la distribution de la radioactivité au seindu plan de coupe en utilisant l’ensemble des infor-mations rangées dans le sinogramme.

Systèmes multicoupes et mode d’acquisitionbidimensionnel (2D)

Principes du mode d’acquisition 2DLes TEP sont des appareils équipés de plusieurscouronnes de détecteurs qui permettent la mesuresimultanée d’un ensemble de coupes. Deux techni-ques d’acquisition et de reconstruction sont propo-sées. La méthode la plus ancienne correspond aumode d’acquisition bidimensionnel. Une projectionbidimensionnelle signifie que seules les lignes deréponses ayant une incidence perpendiculaire auplan du détecteur sont acceptées. L’angle définitl’incidence des lignes de réponse par rapport à ce

Figure 6 Acquisition des données. Une ligne de réponse entre deux détecteurs dA et dB est définie dans le repère des projections parson angle (φ1) et sa distance par rapport au centre du tomographe (S1). La mesure d’une ligne de réponse incrémente d’une unité lepixel du sinogramme correspondant à l’angle et à la distance par rapport au centre.

10 O. de Dreuille et al.

plan. En acquisition 2D, l’angle doit être très pro-che de 0°, puisque les algorithmes de reconstruc-tion ne sont applicables que pour des angles h = 0°.En pratique, l’acquisition en mode 2D est réali-

sée en positionnant des anneaux de plomb, ouseptas, entre les différentes couronnes de détec-teur. La forme et la dimension des septas sontdéterminées de sorte à ne permettre que la mesured’événements coïncidents dans des plans directs oudans des plans croisés (Fig. 7) :

• un plan direct correspond à des lignes de ré-ponse entre des détecteurs situés sur unemême couronne. Les coïncidences mesuréescorrespondent exactement au plan transversedu tomographe et sont caractérisées par unangle h de 0°. Une acquisition en mode 2Dpermet la mesure simultanée d’autant de plansdirects qu’il y a de couronnes de détecteurs ;

• un plan croisé est constitué des lignes de ré-ponses entre des détecteurs situés sur des cou-ronnes de détecteurs adjacentes. L’angle hentre les coïncidences mesurées et le plantransverse est de l’ordre de 1°, il est généra-lement négligé.Au total, un TEP ayant n couronnes de détec-

teurs, mesure simultanément n sinogrammes pourles plans directs et (n-1) sinogrammes correspon-dant aux plans croisés. L’obtention d’un volumerésulte de la reconstruction indépendante des(2n-1) sinogrammes en utilisant des algorithmes dereconstruction 2D.

Reconstruction en TEP 2DLes différentes méthodes sont présentées dans denombreux documents,12,27,40 seuls les grands prin-cipes sont présentés dans ce travail.

Rétroprojection filtréeLa méthode employée depuis de nombreuses an-nées est la rétroprojection des projections filtrées.L’algorithme fonctionne en deux étapes (Fig. 8) :

• filtrage de chaque profil de projection (lignedu sinogramme) au moyen d’un filtre rampe,souvent combiné à un filtre passe-bas pouréviter l’amplification du bruit ;

• rétroprojection dans le plan des projectionsfiltrées, pour les différents angles mesurés.Cette technique présente l’avantage d’être ra-

pide, facile et assez satisfaisante dans le cas defixations de traceur relativement homogènes. Elleest en revanche connue pour amplifier le bruitstatistique, inhérent aux données acquises. Deplus, des artefacts en étoile sont générés par lefiltre de reconstruction. Ces artefacts sont habi-tuellement « dissous » dans le bruit, mais dans lecas de fixations très intenses, ils deviennent visi-bles et rendent difficile l’exploration dans l’envi-ronnement immédiat des structures chaudes. Unevessie très radioactive en raison de l’éliminationvésicale d’un traceur est un exemple démonstratifde ce problème, lors de l’exploration de la régionpelvienne.

Reconstruction itérativeUn algorithme itératif est constitué d’un ensembled’opérations de reconstruction et de projectionsappelées itération.17 Une reconstruction est l’opé-ration qui permet d’obtenir une coupe à partir d’unsinogramme. La projection est l’opération inverse,qui calcule le sinogramme pour une coupe donnée.Au cours de la reconstruction itérative, les itéra-tions sont répétées pour obtenir une coupe théori-quement plus proche de la solution que la coupe

Figure 7 Principe du mode d’acquisition 2D. Les plans directs sont reconstruits à partir des lignes de réponse mesurées au sein d’unecouronne de détecteurs (par exemple entre a1 et b1). Les plans croisés sont constitués des lignes de réponse entre deux couronnesjointives (par exemple entre a1 et b2). Les lignes de réponse entre des couronnes non jointives ne sont pas mesurées (par exempleentre a1 et b5) du fait de la présence des septas.

11Principe et technique de la tomographie par émission de positons (TEP)

précédente. Pour y parvenir, il est nécessaire degénérer, au cours de chaque itération, un sino-gramme estimé. Celui-ci est obtenu par la compa-raison entre la projection de la coupe obtenue àl’itération précédente et le sinogrammemesuré. Lesinogramme estimé est reconstruit par l’itérationsuivante, afin de fournir une nouvelle estimation dela coupe. Ce cycle est répété jusqu’à ce que ladifférence entre le sinogramme mesuré et le sino-gramme estimé soit plus petite que la limite dési-rée. On dit alors que l’algorithme a convergé. Lesalgorithmes itératifs vont se distinguer par les mé-thodes qui sont mises en œuvre pour comparer lessinogrammes. L’algorithme le plus utilisé en TEPest dérivé des méthodes EM (expectation maximi-zation)48 accélérées par le principe des sous-ensembles ordonnés (ordered subset), ce qui cor-respond au sigle OSEM.36

Les reconstructions itératives permettent d’éli-miner les artefacts en étoile autour des structureshyperfixantes (Fig. 9). En revanche, leur mise enœuvre se traduit par une augmentation du tempsde calcul. Cela s’explique par le nombre d’opéra-tions à effectuer pour chacune des itérations. Ce-pendant, les ressources informatiques actuellespermettent d’utiliser ces algorithmes en pratiqueclinique.33

Mode d’acquisition tridimensionnel (3D)

Principe du mode d’acquisition 3D en TEPLe mode d’acquisition 3D est réalisé en l’absencedes septas. Il permet la mesure en coïncidence

entre deux détecteurs positionnés sur des couron-nes indépendantes, et correspondant à des angles hdifférents de 0°. Ce mode d’acquisition entraîneune augmentation globale de la sensibilité du sys-tème, puisqu’il permet la mesure d’un plus grandnombre de lignes de réponse. En mode 3D, la sen-sibilité est variable suivant l’axe longitudinal (axez). Les sources positionnées au centre du tomogra-phe (plan A sur la Fig. 10) peuvent être détectéespar un plus grand nombre de lignes de réponse queles sources excentrées (plan B sur la Fig. 10) quipeuvent être mesurées par moins de lignes de ré-ponse.Lorsque le système d’acquisition permet d’effec-

tuer un mode 3D sans limitation d’angle d’accep-tance, le profil de sensibilité longitudinal est trian-gulaire. Sur de nombreux systèmes, le moded’acquisition 3D est limité à un angle d’acceptanceplus étroit, qui entraîne un plateau sur le profil desensibilité. Lorsque des acquisitions sont réaliséesen mode corps-entier, correspondant à une succes-sion de pas d’acquisition suivant la direction z, ilest nécessaire d’effectuer un recouvrement deschamps de vue, afin de garder un profil de sensibi-lité uniforme sur la plus grande partie du champ devue longitudinal. L’importance du recouvrementdépend de l’angle d’acceptance lors du mode d’ac-quisition 3D : il est de la moitié pour une ouverturemaximale, et réduit pour des angles limités. Enconséquence, une réduction de l’angle d’accep-tance entraîne une diminution de la sensibilité,mais permet de couvrir un champ de vue axial avecmoins de pas successifs par rapport à une mesuresans limitation d’angle (Fig. 11).

Figure 8 Principe de la rétroprojection filtrée. L’acquisition des données (I) correspond à la mesure des projections du patient. Lareconstruction par la technique de la rétroprojection filtrée comprend deux étapes : la première étape consiste à filtrer lesprojections par un filtre rampe dans le dessein d’introduire des valeurs négatives (II), la dernière étape est la rétroprojection de laprojection filtrée (III). Ces opérations, répétées pour tous les angles, fournissent l’image de la distribution radioactive au sein dupatient.

12 O. de Dreuille et al.

Sinogrammes en TEP 3DEn mode 2D, l’ensemble des données de projectionsd’un plan de coupe sont rangées dans un sino-gramme (s, φ). En mode 3D, il est nécessaire detenir compte de l’angle d’incidence h des lignes deréponses détectées. En plus des sinogrammes droitscorrespondant à des événements mesurés dans leplan du détecteur (h = 0°), il est nécessaire d’enre-gistrer les événements détectés entre des couron-

nes distinctes, dans des sinogrammes caractériséspar des angles différents de 0° (Fig. 12). Pour tenircompte de l’ensemble des lignes de réponse, lenombre de sinogrammes d’un système équipé de nanneaux doit être de (n × n). En pratique, pourlimiter le volume de données brutes, la plupart dessystèmes proposent un nombre limité d’angles, leslignes de réponses mesurées sont rangées dans lesinogramme ayant l’incidence la plus proche. Le

Figure 9 Intérêt des algorithmes itératifs en pratique clinique. A montre une coupe transverse obtenue par rétroprojection filtrée ;le profil d’activité met en évidence des niveaux négatifs, dus aux artefacts générés par la méthode de reconstruction. La mise enœuvre d’un algorithme OSEM (B) entraîne une amélioration de l’image par une réduction des artefacts de reconstruction.

Figure 10 Variation de la sensibilité, en mode 3D, dans la direction longitudinale. L’angle correspond à l’angle d’incidence d’uneligne de réponse par rapport au plan perpendiculaire au détecteur. Cet angle est de 0° en mode 2D. En revanche en mode 3D, cet angledépend de la position des détecteurs sur des couronnes différentes. Une source positionnée au centre du tomographe (A) est vue avecun angle solide plus important qu’une source excentrée (B). Il en résulte une variation longitudinale de la sensibilité, en fonction dela position de la source. Lorsque l’angle d’acceptance est limité, le profil de sensibilité se transforme en un trapèze.

13Principe et technique de la tomographie par émission de positons (TEP)

nombre d’angles discrets est de l’ordre de sept,soit une incidence avec h = 0°, trois avec des anglesh positifs et trois avec des angles h négatifs.

Reconstruction en TEP 3DDu fait de l’absence des septas, les éléments deprojection d’une coupe transverse se trouvent pro-jetés sur une série de sinogrammes. L’algorithmede reconstruction 3D doit être en mesure de recons-truire un plan de coupe à partir de l’ensemble desinformations réparties dans les différents sinogram-mes. Contrairement aux méthodes de reconstruc-tion 2D, le volume tomographique est reconstruitglobalement.La reconstruction des données mesurées en

mode 3D peut être effectuée de deux manières :• une reconstruction tridimensionnelle directe ;• un réarrangement des sinogrammes mesurésen sinogramme 2D, qui sont par la suite recons-truits par des algorithmes de reconstructionbidimensionnelle.

Rétroprojection tridimensionnelle filtrée 3D (3DRP)La méthode la plus intuitive consiste à étendre lesprincipes de base des méthodes bidimensionnelles,pour résoudre le problème de la reconstructionvolumique.43 La méthode de rétroprojection filtrée3D est également composée de deux étapes essen-tielles :

• un filtrage de chaque projection 2D par unfiltre 2D (filtre de Colsher), qui a le mêmeobjectif que le filtre rampe ;16

• une rétroprojection dans le volume des projec-tions filtrées selon les différents angles demesure.

Figure 11 Influence de l’angle d’ouverture (h) du mode d’acquisition 3D sur la réalisation des examens corps entier. Une réductionde l’angle d’acceptance entraîne une diminution de la sensibilité (restriction du hmax), mais permet de couvrir un champ de vue axialavec moins de pas successifs par rapport à une mesure sans limitation d’angle.

Figure 12 Sinogrammes en mode 3D et projections incomplètes.A. Sinogrammes correspondant à une incidence identique auplan des détecteurs correspondant à un angle h = 0°, doncidentiques au mode d’acquisition 2D.B. Sinogrammes correspondant à une différence de trois couron-nes de détecteurs (h > 0°) ; les lignes pointillées mettent enévidence les projections incomplètes dues au nombre limité decouronnes de détection.C. Plus l’angle h devient important, plus le nombre de projec-tions incomplètes augmente (lignes pointillées).

14 O. de Dreuille et al.

En réalité, des étapes supplémentaires doiventêtre effectuées, puisque l’algorithme 3D RP re-quiert que les projections 2D soient complètes sui-vant toutes les incidences.25 Or, les projections 2Dmesurées pour des angles h ≠ 0° sont tronquées(Fig. 12). Cela signifie qu’un traitement préalabledoit être mis en œuvre afin de compléter les don-nées manquantes. Celles-ci sont déterminées à par-tir d’une reconstruction 2D des sinogrammes mesu-rés avec des angles h = 0°.Le nombre des éléments de projection ainsi que

la succession de l’ensemble de ces étapes entraî-nent des temps de reconstruction très longs, quiétaient incompatibles avec les exigences cliniqueset les ressources informatiques disponibles ces der-nières années. Cependant, l’arrivée de stations in-formatiques plus puissantes permet d’envisager ac-tuellement la généralisation des algorithmes dereconstruction 3D, y compris au sein de processusitératifs 3D.

Réarrangement des données (ou « rebinning »)Les algorithmes de réarrangement ont été dévelop-pés pour bénéficier des avantages du mode demesure 3D, tout en s’affranchissant des algorith-mes de reconstruction 3D. L’objectif de ces techni-ques est d’estimer un sinogramme droit, c’est-à-dire correspondant à un angle d’inclinaison h = 0°, àpartir d’un ensemble de sinogrammes obliques(h ≠ 0) (Fig. 13). Les données réarrangées sont, dans

un second temps, reconstruites par des algorithmesde reconstruction bidimensionnelle rapides et bienmaîtrisés.Différentes méthodes ont été proposées succes-

sivement pour effectuer le réarrangement des don-nées : l’algorithme SSRB (single slice rebinning),l’algorithme MSRB (multislice rebinning) et l’algo-rithme de FORE (Fourier rebinning).24,55

L’algorithme SSRB consiste à déterminer la nou-velle position z’ à partir de la différence des plansdes deux détecteurs. Cette méthode, simple etrapide, entraîne des défauts de réarrangement im-portants pour les tomographes caractérisés par unangle grand et pour des sources excentrées.Contrairement à l’algorithme SSRB, le réarrange-

ment selon la méthode MSRB répartit la ligne deréponse sur les différents sinogrammes droits situésentre les détecteurs d1 et d2.Le réarrangement dans le plan de Fourier (FORE)

est actuellement la méthode la plus largementutilisée en routine clinique, du fait de son fonction-nement satisfaisant, jusqu’à des incidences de l’or-dre de 15°. Contrairement aux méthodes précéden-tes, le calcul du nouveau plan de coupe z’ n’est paseffectué dans le domaine spatial. Pour y parvenir, ilest nécessaire de calculer les transformées de Fou-rier 2D de chacun des sinogrammes obliques, etd’appliquer le principe fréquence-distance, pourdéterminer le niveau z’ du sinogramme droit cor-respondant. Toutes ces opérations se traduisent par

Figure 13 Principes des algorithmes de réarrangement des données. Le but des algorithmes de réarrangement des données consisteà convertir une série de sinogrammes mesurés en mode 3D pour des angles h différents en un ensemble de sinogrammes correspondantà des angles h = 0°. Les sinogrammes 2D obtenus peuvent être reconstruits par des techniques de reconstruction bidimensionnellerapides.

15Principe et technique de la tomographie par émission de positons (TEP)

des temps de calcul plus longs. Cependant l’utilisa-tion du principe fréquence-distance entraîne la su-périorité du réarrangement FORE par rapport auxméthodes précédentes.L’algorithme FORE, combiné à une reconstruc-

tion itérative du type OSEM (ordered subset expec-ted minimisation), constitue la méthode la pluslargement utilisée en TEP pour les acquisitionscorps entier. Cette solution permet la reconstruc-tion rapide des données mesurées en mode 3D, etréduit les artefacts en étoile souvent observés enrétroprojection filtrée.

Comparaison des modes 2D et 3D

Le mode d’acquisition 3D, par rapport au mode 2D,entraîne une augmentation importante de la sensi-bilité du système, qui permet une diminution desactivités injectées et/ou une réduction de la duréedes examens. Mais du fait de l’absence des septas,le taux d’événements diffusés et aléatoires obser-vés en mode 3D est significativement plus élevéqu’en mode 2D. Par ailleurs et compte tenu du tauxd’événements parasites, l’obtention d’une imagede qualité en mode 3D nécessite la correction desévénements aléatoires et diffusés.En résumé, le mode d’acquisition 2D était systé-

matiquement utilisé sur les TEP construits avant lesannées 1990, principalement pour s’affranchir desdifficultés de la reconstruction tridimensionnelle etdes méthodes de correction à mettre en œuvre.Lorsque ces différents aspects ont été maîtrisés, lesconstructeurs ont proposé des TEP équipés de sep-tas rétractables. Ces appareils, équipés de cristauxde BGO, permettent la réalisation d’examens 2D ou3D en fonction du souhait de l’utilisateur et duprotocole d’acquisition sélectionné. Depuis quel-ques années, certains constructeurs commerciali-sent des appareils fonctionnant exclusivement enmode 3D. C’est en particulier le cas des TEP équi-pés de nouveaux scintillateurs (LSO, GSO), qui sontcaractérisés par une meilleure résolution en éner-gie et une bonne résolution temporelle qui permet-tent de réduire le taux d’événements parasites.

Correction des phénomènes physiqueset quantification des études

L’objectif de ce chapitre est d’expliquer les diffé-rentes étapes qui permettent d’accéder à uneimage fidèlement représentative de la distributionradioactive au sein du patient. Les images obtenuesen TEP résultent d’un comptage des coïncidencesdétectées. Du fait des phénomènes physiques (dif-

fusion Compton et atténuation) et des caractéristi-ques de l’appareillage (événements aléatoires etrésolution spatiale), l’information recueillie dansles projections est biaisée, puisqu’elle ne corres-pond pas à l’intégrale des événements émis dans laligne de réponse. Ces pertes d’information sontvariables en fonction de la position des sourcesdans le champ de vue et au sein du patient. Ellesempêchent la comparaison des fixations mesuréesen ces différentes positions. La compréhension desphénomènes physiques et leurs corrections permet-tent d’obtenir une image représentative de la dis-tribution du traceur au sein de l’organisme.L’étape suivante consiste à quantifier les images

TEP. L’objectif est de déterminer, à partir desimages, la concentration radioactive de chaquepixel. Cette information, intégrée dans des modè-les mathématiques plus ou moins complexes, per-met de quantifier des paramètres physiologiques(consommation de glucose, nombre de récepteurs,etc.).La première partie de ce chapitre est consacrée

à la correction des différents phénomènes physi-ques, indispensable pour la mise en œuvre de laquantification, qui est ensuite présentée.

Coïncidences aléatoires

Position du problèmeUne source de bruit, propre à la détection encoïncidence, est la mesure d’événements aléatoi-res ou fortuits, qui correspond à la mesure de deuxphotons issus de deux annihilations différentes maisqui arrivent pendant la même fenêtre temporelle.L’information spatiale véhiculée par cette mesureest incorrecte (Fig. 3). Le taux de coïncidencesaléatoires dépend linéairement de la fenêtre tem-porelle d’acquisition, donc de la rapidité du scin-tillateur, et croît comme le carré de la radioactivitéprésente dans le champ de vue.Il introduit, dans les données mesurées, un ni-

veau de bruit qui doit être pris en compte.34 Enpremière approximation, la distribution des coïnci-dences aléatoires est considérée uniforme dans lechamp de vue.

Ordre de grandeurLe taux de coïncidences aléatoires est très variableen fonction des conditions d’acquisition et de laconception des TEP :

• plus la fenêtre de coïncidence est large, plus lenombre d’événements fortuits augmente ;

• il est nettement plus important en mode 3Dqu’en mode 2D ;

• il augmente avec le carré de l’activité dans lechamp de vue.

16 O. de Dreuille et al.

La caractérisation des TEP inclut des mesures entaux de comptage qui permettent, entre autres, dedéterminer la fraction des coïncidences aléatoirespour différentes géométries et pour une largegamme d’activités.Pour donner un ordre de grandeur, en mode 3D

corps entier et pour des TEP équipées d’un cristalde BGO, la fraction des coïncidences aléatoirespeut atteindre 50 % des événements mesurés.

Soustraction des coïncidences aléatoiresLa correction de ce phénomène s’effectue par lasoustraction des coïncidences aléatoires. La conta-mination due aux coïncidences fortuites est esti-mée par l’une de ces trois méthodes :

• les coïncidences fortuites peuvent être direc-tement mesurées dans une fenêtre temporelledécalée (delay window). En effet, la probabi-lité de détecter de telles coïncidences est uni-forme au cours du temps, puisqu’elles ne sontpas corrélées à l’annihilation d’un seul positon,mais résultent de l’annihilation de deux posi-tons. Cette technique est la plus largementutilisée, et présente l’avantage de mesurer ladistribution spatiale des coïncidences aléatoi-res ;

• elles peuvent être indirectement estimées àpartir du nombre total de photons détectés parchaque détecteur. Dans ce cas, on utilise larelation :

• Fd1, d2 = Sd1 Sd2 2s où Fd1, d2 est le taux decoïncidences fortuites de la ligne de réponseentre les détecteurs d1 et d2, Sd est le taux dephotons détectés par le détecteur d, et 2s estla largeur de la fenêtre de coïncidence ;

• elles peuvent être aussi corrigées en sous-trayant un niveau constant, qui est estimé àpartir de la distribution des coïncidences dansles projections, en dehors du patient. Cetteméthode, relativement simple à mettre enœuvre, ne s’adapte pas aux variations localesdes taux d’événements aléatoires observésdans des géométries complexes.L’estimation des coïncidences fortuites est en-

suite soustraite pour chaque ligne de réponse.Cette soustraction se traduit par une majoration dubruit au niveau des projections. Il est possible defiltrer le sinogramme des événements fortuits pourréduire les fluctuations statistiques.

Coïncidences diffusées

Position du problèmeLa diffusion Compton entraîne une perte d’énergieet un changement de direction du photon incident.Ce changement de trajectoire fausse l’image, puis-

que la ligne de réponse détectée n’est plus corréléeà son lieu d’émission (Fig. 3). Outre un changementdans la direction d’incidence du photon, la diffu-sion Compton d’un photon se traduit par une perted’énergie. Une partie de ces coïncidences que l’onappelle coïncidences diffusées est éliminée enn’acceptant que les photons dont l’énergie, esti-mée par le détecteur, est compatible avec 511 keV.Malheureusement, la discrimination entre photonsdiffusés et photons non diffusés est difficile, du faitde la médiocre résolution en énergie des détec-teurs à scintillation (15 à 20 % typiquement pour lessystèmes commerciaux actuels). En mode 2D, envi-ron 10 % des coïncidences détectées impliquent aumoins un photon diffusé ; en mode 3D, ce taux peutexcéder 50 %. Au niveau des images, cela se traduitpar une diminution du contraste, du rapport signalsur bruit, par une perte en résolution spatiale etune modification du nombre d’événements comp-tés par pixel.C’est certainement l’effet le plus difficile à cor-

riger en TEP, surtout en mode d’acquisition 3D, enraison de l’influence de l’activité en dehors duchamp de vue et de la résolution en énergie relati-vement médiocre des détecteurs.

Méthodes de correction proposéesOn distingue trois catégories parmi les techniquesde correction de cet effet.Le premier type de techniques utilise l’informa-

tion en énergie en combinant des données acquisesdans au moins deux fenêtres en énergie.1,2 Cesméthodes validées dans des centres de recherchesn’ont pas connu de développements sur des systè-mes commerciaux, cela en raison de la nécessitéd’ouvrir plusieurs fenêtres en énergie, et des exi-gences en termes de calibration en énergie.D’autres techniques exploitent l’information

spatiale de localisation erronée des coïncidencesdiffusées.8 Ces méthodes offrent l’avantage d’of-frir un calcul simple et rapide de la distribution dudiffusé, valable dans le cas où l’activité est répartiedans tout l’objet. En revanche, ces algorithmes nes’adaptent pas aux distributions complexes et àl’activité en dehors du champ de vue. Sur certainssystèmes commerciaux, une correction de bruit defond réalise la soustraction simultanée des événe-ments diffusés et aléatoires.Les dernières méthodes se basent sur un calcul

direct de la distribution du diffusé pour un patientdonné, à partir de la section efficace de Klein-Nishina62 ou de simulations Monte Carlo. Ces mé-thodes sont assez précises. En effet, l’informationsur la détection de coïncidences diffusées prove-nant de sources radioactives en dehors du champ devue des détecteurs est présente dans les acquisi-

17Principe et technique de la tomographie par émission de positons (TEP)

tions en corps entier. Elle présente en outre l’avan-tage de limiter le volume des données acquises parrapport aux acquisitions réalisées dans plusieursfenêtres en énergie, et s’exécute en un tempscompatible avec une reconstruction des données enoncologie. Ce type de méthode est actuellementmis en œuvre sur des systèmes commerciaux.

Effet de volume partiel

Position du problèmeL’effet de volume partiel est la conséquence de larésolution spatiale limitée et de l’échantillonnagechoisi. Cet effet induit une sous-estimation de laconcentration dans les petites structures (spill-outeffect) puisqu’une partie de l’activité se trouvesituée en dehors de la structure du fait de larésolution spatiale du système. En dehors de lastructure, l’effet de volume partiel entraîne unesurestimation des concentrations due à la contami-nation des structures voisines (spill-over effect).Les biais de quantification observés sont fortementdépendants de la taille des lésions et de la résolu-tion spatiale du système. L’effet de volume partielse traduit par une sous-estimation des concentra-tions radioactives mesurées pour toutes les lésionsdont la taille est inférieure à deux ou trois fois larésolution spatiale du système.35

Correction sur les comptages. Coefficientsde recouvrementLa méthode la plus simple pour prendre en comptece phénomène consiste à multiplier les valeurs desconcentrations déterminées au moyen d’une régiond’intérêt, par un facteur de recouvrement qui dé-pend de la taille des lésions. Les coefficients derecouvrement sont mesurés au moyen d’un fan-tôme contenant des sphères remplissables de diffé-rents diamètres. Le rapport entre les concentra-tions restituées et les concentrations réelles fournitdes coefficients de recouvrement qui sont ensuiteappliqués pour corriger les comptages mesurés ausein d’une région d’intérêt.La démarche pratique pour l’obtention d’une

concentration radioactive corrigée de l’effet devolume partiel est la suivante :

• mesure de la concentration radioactive aumoyen d’une région d’intérêt ;

• estimation de la taille de la lésion si possible aumoyen d’une image anatomique (TDM ou ima-gerie par résonance magnétique [IRM]) afin deconnaître le facteur de correction à appliquer ;

• multiplication de la concentration par le fac-teur de correction approprié.Du fait de sa simplicité, cette technique est

largement utilisée pour obtenir des comptages cor-

rigés de l’effet de volume partiel. En revanche,cette méthode ne modifie pas l’image et ne permetpas d’améliorer la détection des lésions.

Corrections de l’imagePlusieurs méthodes de correction de l’effet de vo-lume partiel ont été proposées dans le desseind’améliorer l’image TEP.L’approche la plus ancienne est fondée sur la

déconvolution de l’image par la fonction de ré-ponse du tomographe. Cette technique est difficileà mettre en œuvre, du fait de l’amplification dubruit due à la restauration des fréquences spatialesélevées. Pour éviter ce phénomène, l’opération dedéconvolution est limitée aux fréquences intermé-diaires et ne permet pas une restauration complètede l’information.Le deuxième type d’approche s’effectue dans le

domaine spatial (en opposition au domaine de Fou-rier). Ces techniques supposent que l’image d’unedistribution radioactive peut être traitée comme unsystème linéaire. Connaissant la fonction de ré-ponse de l’imageur dans le domaine spatial, et lescontours des objets fixants (au moyen d’une imageanatomique recalée), il est possible de restituerune image corrigée de l’effet de volume partiel. Laprécision de ces techniques de correction reposesur l’exactitude de recalage entre les données duTEP et de la modalité d’imagerie anatomique (IRMou TDM) et de la segmentation des contours à partirde l’imagerie anatomique. L’arrivée des camérasTEP/TDM ne peut que faciliter le développementde ce type de correction en pratique clinique.

Atténuation

Position du problèmeUne proportion importante des photons de 511 keVest atténuée par les tissus du patient. L’atténua-tion est un phénomène non isotrope dans l’orga-nisme, qui varie en fonction de la composition et del’épaisseur des milieux traversés, ainsi que del’énergie des photons. Les images obtenues en TEP,en l’absence de correction du phénomène d’atté-nuation, sous-évaluent les fixations profondes. Unecorrection doit être mise en œuvre pour restituerune image représentative de la distribution du tra-ceur. Pour y parvenir, une mesure de transmission,réalisée avec une source externe, permet deconnaître la distribution des coefficients d’atté-nuation au sein du patient. Pour limiter la duréed’examen et éviter des problèmes de repositionne-ment, il est souhaitable d’effectuer la mesure detransmission au moment de la mesure des imagesd’émission. Plusieurs méthodes sont employéespour réaliser des mesures de transmission, elles

18 O. de Dreuille et al.

utilisent des sources de germanium 68 (68Ge), decésium 137 (137Cs) ou des rayons X. Le temps demesure peut être réduit et compensé par des trai-tements informatiques adaptés. Ces derniers ex-ploitent des techniques de segmentation des struc-tures d’atténuation différentes, à partir des imagesde transmission bruitées et/ou biaisées.73,74,85 Lavaleur correcte du coefficient d’atténuation li-néaire à 511 keV est alors affectée à chaque struc-ture.

Transmission au moyen d’un émetteurde positons : 68 GeL’utilisation de plusieurs sources linéaires de 68Geest la méthode la plus ancienne à avoir été em-ployée pour les mesures de transmission. Laconcentration des sources radioactives doit êtreassez élevée, pour obtenir une statistique de comp-tage importante dans un temps relativement court,sans toutefois saturer le détecteur. La mesure estréalisée en mode d’acquisition 2D, en présence descollimateurs intercoupes, afin de limiter le tempsmort des détecteurs et l’enregistrement de coïnci-dences diffusées provenant des sources radioacti-ves distribuées en dehors du plan de coupe. L’usagede sources radioactives de forte intensité ne peutêtre envisagé sur les tomographes purement 3D.L’avantage de ce mode réside dans le fait que lesmesures de transmission sont effectuées à 511 keV.De plus, la détection en coïncidence réalise unecollimation électronique qui limite l’enregistre-ment d’événements de transmission ayant subi unediffusion Compton. En revanche, lors de mesuresréalisées en présence d’activité dans le patient, ilest nécessaire de disposer d’une technique permet-tant la correction de la contamination des événe-ments d’émission, au sein de la mesure de trans-mission.

Transmission au moyen d’émetteur de simplephoton : 137 CsLes mesures de transmission en mode simple pho-ton sont généralement réalisées au moyen d’unesource de 137Cs, et nécessitent une électronique etdes traitements spécifiques.6 D’un point de vueéconomique et contrairement aux sources de 68Ge(9 mois), la période du 137Cs (30 ans) permet deconserver la source de transmission pendant ladurée de vie du tomographe. D’un point de vuephysique, le mode d’acquisition simple photon à662 keV permet d’augmenter la sensibilité du sys-tème, comparé au mode de détection en coïnci-dence, et d’obtenir en un temps limité une infor-mation moins bruitée. Il nécessite une électroniquerapide et adaptée à la mesure des photons de662 keV. Les données de transmission étant acqui-

ses en présence d’activité dans le champ de vue, ilest nécessaire de tenir compte de la contaminationdes événements de 511 keV enregistrés dans lafenêtre de 662 keV. L’importance de cette conta-mination dépend essentiellement de la résolutionen énergie du scintillateur. Cela explique pourquoice mode de transmission fonctionne de manièresatisfaisante sur les caméras caractérisées par unebonne résolution en énergie (NaI, GSO). Les don-nées ainsi mesurées font ensuite l’objet d’une seg-mentation, avant d’être utilisées dans les program-mes de reconstruction.

Transmission au moyen de rayons XLa distribution des coefficients d’atténuation peutaussi être mesurée au moyen d’un examen TDMréalisé par des rayons X. La possibilité de coupler unTEP et un TDM a déjà été évaluée depuis de nom-breuses années, à l’université de Pittsburgh. Ac-tuellement, tous les constructeurs proposent dessystèmes qui réalisent cette double acquisition.L’intérêt réside dans l’obtention d’une image detransmission de très bonne résolution spatiale dansun temps très bref, permettant de réduire la duréedes examens. Ce gain en résolution dans l’image detransmission doit se traduire par une meilleurecorrection du phénomène d’atténuation au sein despetites structures atténuantes et hyperactives, quine sont pas « vues » par les mesures de transmissionréalisées avec des sources radioactives.18 Cepen-dant, l’apport de cette acquisition TDM dépassetrès largement le problème de la correction d’atté-nuation, puisqu’elle apporte en plus une localisa-tion anatomique précise des lésions. La descriptionet l’intérêt des machines hybrides TEP/TDM sontprésentés dans un chapitre spécifique.

Impact de la correction d’atténuationLa correction d’atténuation en TEP, associée à lacorrection des autres phénomènes physiques, per-met de comparer les niveaux de fixation des diffé-rentes lésions. Elle permet une meilleure visualisa-tion des lésions profondes, et facilite la localisationdes lésions, grâce à des images plus représentativesde la fixation du traceur au sein des différentsorganes : cela est particulièrement marqué pourl’interface entre le foie et les poumons (Fig. 14).Par ailleurs, la correction d’atténuation constitueune étape essentielle pour la mise en œuvre de laquantification des études. Cela est particulière-ment important pour évaluer l’efficacité d’un trai-tement en cancérologie.

Mise en œuvre de la quantification

La connaissance précise de la quantité de traceurfixée par les différentes lésions doit permettre de

19Principe et technique de la tomographie par émission de positons (TEP)

fournir des indications quantitatives sur la fonctionétudiée. Les problèmes pratiques liés à la quantifi-cation peuvent être répartis en deux catégories :

• l’exactitude de la mesure de la concentrationradioactive, qui suppose la correction des dif-férents phénomènes physiques afin d’obtenirune information réellement représentative dela distribution du traceur ;

• la corrélation entre le niveau de la fixation etla quantification d’une fonction biologique.L’imagerie en TEP au 18FFDG est une illustration

particulièrement intéressante de ces différents as-

pects. Les fixations sont assez couramment expri-mées en standardized uptake value (SUV) qui cons-titue l’index quantitatif le plus largement utilisé enpratique clinique.65 L’objectif des paragraphes sui-vants est de présenter d’une part la méthodologienécessaire pour l’obtention des SUV, et d’autrepart de présenter les principes physiques et physio-logiques qu’il est nécessaire de connaître pour l’ex-ploitation convenable de ces valeurs.

Mesure de la concentration radioactiveL’obtention d’une image corrigée des différentsphénomènes physiques résulte d’un enchaînementde corrections et de calibrations, résumées sur lafigure 15. La première étape est constituée par lasoustraction des événements aléatoires de la me-sure des données d’émission, puis par la correctiondu phénomène d’atténuation, en utilisant les don-nées mesurées en transmission. Les coïncidencesdiffusées peuvent être estimées et corrigées ausein de cette même étape. L’ensemble de cescorrections permet d’accéder à une quantificationrelative de l’image. L’intérêt de la quantificationrelative réside dans la possibilité de comparer, demanière satisfaisante, les différentes fixations ausein du volume exploré. Son inconvénient provientde la difficulté d’obtenir des valeurs quantitativesqui permettent de suivre l’efficacité d’un traite-ment anticancéreux ou de comparer des résultatsentre plusieurs individus.L’obtention d’une quantification absolue re-

quiert une calibration du tomographe, qui est géné-ralement effectuée au moyen de la mesure d’unfantôme cylindrique, dont la concentration ra-dioactive est parfaitement connue. Les donnéesmesurées sont ensuite corrigées de l’ensemble desphénomènes physiques. Le facteur d’étalonnage dela caméra est alors déterminé, au moyen d’unerégion d’intérêt centrée sur le cylindre, en compa-rant le nombre de coups/pixel à la concentrationradioactive (kBq/ml), connue par le remplissage dufantôme. Le passage de la quantification relative àla quantification absolue s’effectue grâce à laconnaissance du facteur d’étalonnage, qui permetde convertir les coups/pixel en kBq/ml. Il est im-portant de souligner que la quantification absoluene signifie pas que les concentrations mesuréessoient parfaitement justes, ni que tous les effetssoient parfaitement corrigés, mais seulement quel’on connaît une relation d’étalonnage entre lamesure et une référence.

« Standardized uptake value »En pratique clinique, la concentration radioactive,exprimée en kBq/ml en chaque point de l’image estmoins utile qu’une normalisation de cette valeur,

Figure 14 Impact de la correction d’atténuation en pratiqueclinique.A. Coupe coronale sans correction d’atténuation.B. Coupe coronale avec correction d’atténuation. La correctiond’atténuation permet une meilleure visualisation des structuresprofondes (rachis), et facilite la localisation des différenteslésions. Illustration clinique : tumeur maligne basipulmonairedroite, avec extension hilaire bilatérale et médiastinale préca-rinaire (hôpital d’instruction des Armées du Val de Grâce.C-PET™. Adac-Philips).

20 O. de Dreuille et al.

qui tienne compte de l’activité injectée et de lamorphologie du patient. Le calcul des standardizeduptake value (SUV) effectue une normalisation dece type, basée sur le rapport entre la fixation dutraceur et la dilution homogène du traceur dans levolume du patient selon la formule suivante :

SUV =Fixation� Bq⁄ml �

Activité� Bq �⁄volume� ml �où la fixation, exprimée en Bq/ml, correspond àl’image quantifiée de manière absolue ; les termesdu dénominateur correspondent respectivement àl’activité au moment de la mesure et au volume dupatient. Pour plus de commodité, le volume dupatient est généralement remplacé par son poids,en supposant une densité moyenne de 1. En ré-sumé, une valeur de SUV égale à 1 signifie quel’activité est diluée de manière uniforme dans levolume. Une valeur de 10 dans une lésion signifieque cette fixation est 10 fois supérieure à la dilu-tion uniforme du traceur.

Avantages et limites de la quantification SUVPour les nombreux types de tumeurs fixant le FDG,la captation du traceur est corrélée à la proliféra-tion des cellules tumorales, et est également asso-ciée au nombre de cellules viables. Donc, une ré-duction de la fixation consécutive à un traitementrend compte de l’altération du métabolisme et dutaux de destruction des cellules tumorales. La pos-sibilité de mesurer la valeur SUV d’une lésion per-met de disposer d’une information quantitative quipeut être utilisée pour :

• comparer l’intensité de la fixation par rapportà une population de patients ;

• évaluer la réponse thérapeutique (Fig. 16).Ces comparaisons, pour être valides, doivent

s’appuyer sur un protocole de réalisation des exa-mens bien déterminé, qui garantit des conditionsphysiologiques analogues. Il est également impor-tant que les hypothèses de normalisation utiliséespour la détermination des SUV soient relativementconstantes quels que soient les individus et repro-ductibles dans le temps.

La préparation du patient, ainsi que le protocolede réalisation de l’examen conditionnent la distri-bution du traceur au sein de l’organisme. Ellespeuvent donc altérer la signification des valeursSUV. Un délai de 60 à 90 minutes entre l’injectionet le début de l’acquisition est généralement res-pecté. Ce délai résulte d’un compromis entre letemps nécessaire pour atteindre le plateau de fixa-tion pour les lésions tumorales, et la décroissancedu traceur. La réponse thérapeutique évaluée parplusieurs examens TEP successifs nécessite, pourrester valide, de conserver un délai constant, enfaisant l’hypothèse que le temps pour atteindre leplateau de fixation ne soit pas modifié par la thé-rapie. Or, l’étude de Hamberg31 met en évidenceune variété importante de la vitesse de captationdu FDG par les tumeurs entre les patients, maiségalement, pour un même sujet, entre des exa-mens réalisés à différents stades du suivi thérapeu-tique.

La glycémie est un autre facteur qui influe direc-tement sur la fixation du FDG, et donc sur lesvaleurs SUV.49 Si la glycémie est trop élevée, onobserve une rétention plus faible du FDG dans les

Figure 15 Différentes étapes pour obtenir une image calibrée en «standardized uptake value » (SUV). I : la première étape consisteen la correction des différents phénomènes physiques, afin d’obtenir une image représentative de la distribution de traceur au seindu patient. II : l’étalonnage de la caméra au moyen d’un cylindre permet d’établir la correspondance entre le nombre de coupsmesurés par pixel et une concentration radioactive. III : le facteur d’étalonnage déterminé précédemment permet d’obtenir uneimage quantifiée en kBq/ml. IV : la normalisation des fixations en fonction de l’activité injectée et du poids du patient fournit les SUV.La précision des valeurs SUV est directement fonction de l’exactitude et de la rigueur de chacune des étapes.

21Principe et technique de la tomographie par émission de positons (TEP)

tissus. Pour s’affranchir de ces problèmes, le pa-tient non diabétique doit être à jeun depuis 6 heu-res.Par ailleurs, le métabolisme du glucose est diffé-

rent entre les tissus adipeux et les autres tissusmous, entraînant une fixation différentielle du18FFDG au sein de l’organisme. Une perte de poidslors d’un traitement peut se traduire par une dimi-nution des valeurs SUV qui n’est pas le reflet d’unediminution du nombre de cellules viables. D’autresnormalisations ont donc été proposées,72,76 dontl’une se base sur la surface corporelle du patient(surf) :

SUVsurf =Fixation� Bq⁄ml �

Activité� Bq �⁄Surface� m2�

où la surface est déterminée en employant desformules empiriques qui prennent en compte lesexe, le poids (P) et la taille des patients (h).Une autre normalisation basée sur la masse mai-

gre du patient a également été proposée, où l’onobtient le SUV de la manière suivante :

SUVpoids sec =Fixation� Bq⁄ml �

Activité� Bq �⁄Masse maigre� kg �

où :• la masse maigre d’une femme (kg) = 1,07 P –148 (P/h)2 ;

• la masse maigre d’un homme (kg) = 1,10 P – 120(P/h)2.Selon les auteurs, ces deux normalisations four-

nissent des valeurs SUV qui restent valides indépen-damment des variations de poids des patients.

Modèles compartimentauxLa quantification SUV se limite à un index de dilu-tion du traceur au sein de l’organisme. L’obtentiond’un paramètre physiologique, métabolisme cellu-laire du glucose ou densité des récepteurs, estdéterminée par une approche méthodologique par-ticulière. La cinétique d’un traceur peut être dé-crite au moyen d’un modèle compartimental. Cetype de méthode synthétise les informations relati-ves à un processus biologique sous forme de com-partiments et de taux d’échange entre les compar-timents.84 Les compartiments correspondent soit àune étape du métabolisme du traceur, soit à uneétape de la fixation du traceur à une molécule. Lacinétique du traceur est décrite par des équationsdifférentielles du premier ordre. On considère engénéral que les taux d’échange entre les comparti-ments sont des constantes qu’il s’agit d’identifier.La résolution des équations et l’identification desconstantes exigent le plus souvent de connaître laconcentration du traceur dans le plasma artériel aucours du temps. Cela signifie que pour la mise enœuvre de ces méthodes, il est nécessaire d’effec-tuer des prélèvements artériels et de réaliser desacquisitions dynamiques. Ces contraintes sont dif-ficilement conciliables avec la pratique clinique.

Performances d’un systèmeet contrôle de qualité

Les TEP sont très divers dans leur conception : choixdu scintillateur, configuration des détecteurs.

Figure 16 Intérêt de la quantification pour le suivi thérapeutique.A. Image FDG d’un lymphome non hodgkinien en bilan initial préthérapeutique. L’image quantifiée en SUV (standardized uptakevalue) met en évidence une fixation intense du traceur au niveau des ganglions médiastinaux supérieurs et cervicaux inférieursbilatéraux.B. Examen réalisé après deux cures de chimiothérapie. Réponse scintigraphiquement complète, constatée de manière précoce par laTEP. L’échelle de couleur permet l’estimation visuelle des SUV (hôpital d’Instruction des Armées du Val de Grâce. C-PET™.Adac-Philips).

22 O. de Dreuille et al.

Aussi, la standardisation des procédures de tests etdes contrôles de qualité n’est pas aisée. Cepen-dant, depuis de nombreuses années, les procéduresNEMA (1994 et 1999)59,60 se sont imposées et per-mettent d’évaluer les performances d’un systèmepar rapport aux autres. Ces procédures peuventcependant être réparties suivant :

• les performances évaluées avant la reconstruc-tion, qui caractérisent les propriétés du détec-teur ;

• les mesures sur l’image reconstruite, qui éva-luent l’exactitude des procédures de recons-truction et de quantification. Compte tenu dela diversité des algorithmes, cet ensemble decaractéristiques est souvent dépendant despossibilités offertes par le constructeur ; et lacomparaison entre les différents systèmes estsouvent délicate.

Performances du détecteur

Les caractéristiques essentielles d’un TEP sont larésolution spatiale et surtout les performances entaux de comptage.

Résolution spatialeLa résolution spatiale décrit la capacité du systèmeà séparer deux sources voisines. Ce paramètre dé-pend :

• de la distance parcourue par le positon entre lelieu d’émission et celui de la réaction d’anni-hilation53 et du défaut de colinéarité des pho-tons émis ;

• de la conception du TEP, en particulier de lataille des détecteurs élémentaires et du dia-mètre de l’anneau ;

• de l’échantillonnage des sinogrammes et descoupes reconstruites ;

• des méthodes de reconstruction, en particulierdes filtres de reconstruction utilisés, qui effec-tuent un compromis entre la résolution spa-tiale et le bruit.La première composante est généralement négli-

geable vis-à-vis des autres paramètres, pour les TEPconçus pour l’exploration humaine. En revanche, laconception des appareils dédiés à l’imagerie dupetit animal vise à réduire la taille des détecteursélémentaires et le diamètre de l’anneau, afin des’approcher au plus près de la résolution intrinsè-que liée au mode de désintégration. Des résolutionsspatiales inférieures à 2 mm sont ainsi obtenues surdes prototypes développés dans des centres derecherches.D’un point de vue pratique, la résolution spatiale

est déterminée au moyen d’une source linéaire ouponctuelle dans l’air (NEMA, 1994 et 1999) ou au

sein d’un milieu diffusant (EEC, 1991). Elle estdéfinie comme la largeur à mi-hauteur (FWHM) duprofil d’activité. La largeur au dixième de la hau-teur (FWTM) renseigne sur les queues de distribu-tion. Cette mesure doit être effectuée dans lesconditions d’échantillonnage les plus fines autori-sées par le système. Les mesures de résolution sonteffectuées pour différentes positions dans le champde vue. Ce paramètre est souvent évalué aprèsreconstruction, mais dans ce cas, le filtre et laméthode de reconstruction doivent être notifiés.Les valeurs obtenues dépendent de la taille des

cristaux, de la génération du tomographe et del’isotope employé. En fonction des systèmes etpour le 18F, la résolution spatiale (FWHM) varie de5 à 8 mm en l’absence de filtre, et de 7 à 10 mmavec les filtres utilisés en situation clinique.

Performances en taux de comptage

Importance de ce paramètreLe comportement d’un TEP en taux de comptageconstitue une des caractéristiques essentielles del’instrument de mesure. En effet, l’obtention d’uneimage résulte de la reconstruction des projectionsmesurées. La valeur de chaque pixel du sino-gramme (ou élément de projection) correspond àun comptage pendant la durée d’acquisition. Lebruit propre à chaque mesure élémentaire est dé-terminé par la loi de Poisson. Les fluctuations sta-tistiques sont inversement proportionnelles à ladensité d’événements mesurés. De plus, seule unefraction des coïncidences mesurées correspond à ladétection d’événements vrais.Le comportement d’un TEP en taux de comptage

est représenté par le nombre et le rapport entre lescoïncidences vraies (signal utile) et les événementsaléatoires et diffusés (bruit). Le rapport entre lesignal utile et le bruit peut être estimé par le calculd’un paramètre global, le noise equivalent count(NEC).75 Cet index représente le taux de comptageéquivalent d’un système où les coïncidences fortui-tes et diffusées seraient complètement éliminées àl’acquisition. Il équivaut au rapport signal sur bruitdéfini au moment de l’acquisition des données,mais n’intègre pas les amplifications de bruit dues àla reconstruction.37 Le maximum de cette courbefournit le meilleur rapport entre les différents ty-pes d’événements mesurés et permet de détermi-ner la plage d’activité optimale pour l’utilisationd’un TEP.Les performances en taux de comptage d’un

appareil résultent essentiellement de la conceptiondu système et du mode de mesure. L’idéal est dedisposer d’un scintillateur dense, rapide et résoluen énergie, qui permet respectivement d’optimiser

23Principe et technique de la tomographie par émission de positons (TEP)

la sensibilité de détection, tout en limitant le nom-bre de coïncidences aléatoires et diffusées. Parailleurs, le mode d’acquisition 3D permet une amé-lioration importante de la sensibilité, mais se tra-duit également par une augmentation du taux decoïncidences parasites. De plus, la distribution spa-tiale de la radioactivité influe sur la réponse dudétecteur. Cela est particulièrement important enmode 3D, où les sources situées à l’extérieur duchamp de vue entraînent une augmentation du tauxd’événements diffusés et aléatoires. Il apparaîtdonc que les performances en taux de comptaged’un appareil sont un critère global, qui résulte dela conception générale du détecteur et de sonélectronique.

Mesure des performances en taux de comptageLes performances en taux de comptage sont mesu-rées au moyen de deux fantômes différents, quipermettent d’estimer le comportement d’un TEPpour les examens cérébraux et pour les examenscorps entier :

• l’emploi d’un cylindre de 20 cm de diamètre etde 20 cm de long permet de se rapprocher desconditions rencontrées lors des explorationscérébrales. Dans ce mode de mesure, l’activitéen dehors du champ de vue a une influencerelativement faible sur les taux de comptagemesurés. Cette procédure est réalisée avec lefantôme préconisé par les normes NEMA de1994 ;59

• l’utilisation d’un cylindre de 70 cm de long,préconisée par les nouvelles normes NEMA,60

permet d’estimer les performances en taux decomptage en présence d’activité en dehors duchamp de vue. Ces conditions expérimentalessont plus proches des acquisitions corps entier,caractérisées par des organes fortement ra-dioactifs en dehors du champ de vue (vessie etcerveau).

Le principe des mesures consiste à remplir lefantôme avec une concentration radioactive suffi-samment importante, de façon à saturer le détec-teur. Des acquisitions sont effectuées à intervallesréguliers, pendant quatre ou cinq périodes radioac-tives, afin d’étudier la réponse du TEP pour unegamme étendue d’activité. Les taux de coïnciden-ces vraies, diffusées et aléatoires sont déterminéspour chacun des points de mesures. Le rapportentre le signal utile et le bruit est estimé par lecalcul du NEC.

Analyse des courbesLa figure 17 présente les performances en taux decomptage de la caméra C-PE ™ (Adac-Philips) mesu-rées au moyen d’un cylindre de 20 cm de diamètreet de 20 cm de longueur uniformément rempli de18F.1 L’allure des différentes courbes est relative-ment constante d’un système à un autre, en revan-che les échelles en taux de comptage et en concen-tration radioactive peuvent être très variables enfonction des systèmes étudiés. L’objet de ce para-graphe est d’analyser en détail les différentes cour-bes, afin d’illustrer l’importance des performancesen taux de comptage.L’évolution du nombre total de coïncidences me-

surées met en évidence un écart entre les événe-ments mesurés et la relation linéaire extrapolée àpartir des valeurs de concentrations faibles. Cetécart, de plus en plus important lorsque la concen-tration radioactive est élevée, s’explique par lasaturation du détecteur. Ce phénomène résulte dela détection de deux photons gamma pendant ladurée d’intégration au niveau d’un détecteur élé-mentaire. Cet effet d’empilement revient à nemesurer qu’un événement d’une énergie égale à lasomme des deux photons, qui est donc rejeté auniveau de la fenêtre en énergie. Pour des activitésimportantes dans le champ de vue, le phénomèned’empilement devient majoritaire, ce qui entraîne

Figure 17 Performances en taux de comptage de la caméra C-PET™ (Adac-Philips).

24 O. de Dreuille et al.

une chute globale des performances en taux decomptage du système. La saturation d’un systèmedépend :

• de la durée d’intégration, d’où l’importanced’un scintillateur rapide et caractérisé par uneémission de lumière abondante ;

• de la surface de la zone de détection élémen-taire ou du bloc de détection dans laquellepeuvent se produire les effets d’empilement.Pour une analyse plus fine des performances en

taux de comptage, il est nécessaire de décomposerles coïncidences mesurées en coïncidences vraieset en coïncidences parasites : les diffusées et lesaléatoires.Le taux d’événements aléatoires varie selon la

durée de la fenêtre de coïncidence et du carré del’activité dans le champ de vue. Le taux de coïnci-dences aléatoires peut être négligé pour desconcentrations radioactives très faibles. En revan-che, celui-ci peut être du même ordre de grandeurque les coïncidences vraies pour des activités plusélevées. La meilleure technique pour réduire letaux d’événements aléatoires réside dans l’emploid’une fenêtre temporelle brève, ce qui ne peut seconcevoir que pour des scintillateurs rapides.La fraction d’événements diffusés par rapport

aux événements vrais est constante, quelle que soitla concentration radioactive. L’importance relativede ce phénomène résulte de la résolution en éner-gie et de la largeur de la fenêtre spectrométriquedu TEP.

La courbe NEC est obtenue en combinant lesdifférents taux de comptage. Cette courbe passepar un maximum pour lequel le rapport signal surbruit est optimal. À partir de cette concentrationradioactive, il est possible de déterminer les acti-vités à injecter au patient permettant d’utiliser aumieux les propriétés en taux de comptage d’unsystème.

Comparaison des systèmesL’analyse des performances en taux de comptagepermet de comparer les différents systèmes et dedistinguer les différentes catégories de tomogra-phes. Comme cela a été présenté dans les paragra-phes précédents, un des index les plus pertinentspour effectuer cette comparaison est sans doute lacourbe NEC, puisqu’elle résulte d’une combinaisondes différents taux de comptage. La figure 18 pré-sente les courbes NEC de plusieurs systèmes carac-térisés par des conceptions radicalement différen-tes.Ce graphique met en évidence l’écart de sensibi-

lité entre les gamma-caméras en coïncidence et lesTEP dédiés. Les faibles performances des gamma-caméras en coïncidence s’expliquent par l’utilisa-tion d’un cristal de Na (Tl) d’une épaisseur infé-rieure à 19 mm, et par un angle solide de détectionassez réduit. Les TEP équipés de six détecteurs deNa (Tl), répartis en anneau autour du patient,entraînent une augmentation du maximum de lacourbe NEC d’un facteur 10 par rapport aux systè-

Figure 18 Courbes NEC (équivalent de rapport signal sur bruit) mesurées en mode 3D pour différentes catégories d’appareils selon lesnormes NEMA de 1994. Les faibles performances des gamma-caméras en coïncidence s’expliquent par l’utilisation d’un cristal de Na(Tl) d’une épaisseur inférieure à 19 mm, et par un angle solide de détection assez réduit (courbe MCD – CDET). Les TEP équipés de sixdétecteurs de Na (Tl), répartis en anneau autour du patient, entraînent une augmentation du maximum de la courbe NEC d’un facteur10 par rapport aux systèmes précédents (courbe C-PET TEP-NaI). Le phénomène de saturation, pour les systèmes constitués dedétecteurs plans de Na (Tl), se produit pour des concentrations relativement faibles, en raison de la grande surface de détection. LesTEP conçus à partir de détecteurs blocs sont moins sensibles aux phénomènes d’empilement. De plus, la forte densité du cristal BGO(germanate de bismuth) permet d’obtenir des performances en taux de comptage supérieures aux systèmes Na (Tl) (courbe EXACTHR+ BGO).

25Principe et technique de la tomographie par émission de positons (TEP)

mes précédents. Le phénomène de saturation, pourles systèmes constitués de détecteurs plans de Na(Tl), se produit pour des concentrations relative-ment faibles, en raison de la grande surface dedétection. Les TEP conçus à partir de détecteursblocs sont moins sensibles aux phénomènes d’empi-lement. De plus, la forte densité du cristal BGOpermet d’obtenir des performances en taux decomptage supérieures aux systèmes Na (Tl).L’emploi de nouveaux scintillateurs plus rapides,

tels que le LSO, entraîne une diminution des duréesd’intégration et une réduction de la fenêtre decoïncidence. Il en résulte une augmentation desperformances en taux de comptage, qui permet detravailler avec des concentrations radioactives plusélevées. Cela est illustré par la figure 19, qui com-pare les performances de deux systèmes selon leprotocole NEMA 1999.

Exactitude de l’image reconstruite

Les caractéristiques des détecteurs présentés dansles paragraphes précédents constituent les perfor-mances intrinsèques des appareils. Par ailleurs,l’analyse des examens en TEP repose sur des coupestomographiques qui sont obtenues par une succes-sion d’étapes : reconstruction des sinogrammes,correction des différents phénomènes physiques,mise en œuvre de la quantification. L’ensemble deces traitements doit être contrôlé. Pour y parvenir,les normes NEMA proposent des procédures particu-lières. Les principaux tests concernent l’uniformitédes coupes reconstruites, la détectabilité des lé-sions, la qualité de la mesure de transmission, ainsique l’exactitude de la quantification.Les résultats obtenus sont fortement influencés

par les paramètres de reconstruction, eux-mêmes

variables d’un système à l’autre. Le but de cesmesures est plus d’évaluer et d’optimiser les per-formances des algorithmes d’un tomographe que depermettre la comparaison rigoureuse des différentssystèmes.

Uniformité dans la coupe et dans le volumeL’image d’un cylindre uniformément rempli de tra-ceur permet d’évaluer l’uniformité de la concen-tration radioactive dans la coupe et le volume. Pourévaluer ce paramètre, il est recommandé de semettre dans des conditions de faible taux de comp-tage : taux des coïncidences fortuites et tempsmort du système négligeables. Toutes les correc-tions disponibles par le tomographe doivent êtreappliquées (correction du temps mort, des coïnci-dences aléatoires et diffusées, de l’atténuation).Il est alors possible de calculer les défauts d’uni-

formité pour chaque coupe, ainsi que pour l’ensem-ble du volume. Pour s’affranchir des effets de vo-lume partiel, les pixels au voisinage des contours ducylindre ne participent pas au calcul de l’unifor-mité.

Exactitude de la correction d’atténuationLe but de ce test est de vérifier l’exactitude descoefficients d’atténuation mesurés par l’acquisi-tion en transmission. Cette mesure s’effectue aumoyen de trois cylindres de 50 mm de diamètre,constitués respectivement d’air, d’eau et de Té-flon® (atténuation équivalente à l’os), insérés dansle fantôme cylindrique de 20 cm de diamètre. Lescoefficients d’atténuation de ces trois éléments,déterminés sur l’image de transmission, sont com-parés aux caractéristiques d’atténuation des maté-riaux pour l’énergie considérée. Pour cette mesure,le cylindre simulant l’os peut également être rem-

Figure 19 Courbes NEC (équivalent de rapport signal sur bruit) mesurées en mode 3D pour différentes catégories d’appareils selon lesnormes NEMA de 2000. La courbe NEC d’une caméra équipée de LSO (courbe ACCEL LSO) atteint son maximum pour une concentrationplus élevée que celle correspondant au maximum de la courbe d’une caméra BGO (courbe EXACT HR+ BGO). L’amélioration desperformances en taux de comptage apportée par des nouveaux scintillateurs plus rapides, tels que le LSO, permet de réduire la duréedes acquisitions tout en conservant une statistique suffisante pour l’obtention d’une image de qualité.

26 O. de Dreuille et al.

pli d’une solution liquide présentant un coefficientd’atténuation équivalent à celui de l’os.18 En injec-tant une solution radioactive dans le cylindre de20 cm de diamètre, il est alors possible d’étudier laqualité de la transmission et l’influence sur l’imaged’émission corrigée de l’atténuation.

DétectabilitéCe test présente l’intérêt d’évaluer la détectabilitédu système, dans des situations proches de la clini-que, où l’on cherche à détecter des hyperfixationsde taille et d’intensité modérées incluses dans unbruit de fond. Pour ce test, les hyperfixations et leshypofixations correspondent à six sphères remplis-sables, dont les diamètres internes varient de 10 à37 mm (10, 13, 17, 22, 28, 37 mm). Ces sphères sontinsérées dans un fantôme uniformément remplid’une solution radioactive. Les deux plus grandessphères (28 et 37 mm) sont remplies d’eau nonradioactive (sphères non fixantes) et les quatre pluspetites d’une concentration radioactive n fois plusforte que celle du fantôme. Le facteur n peut varierde 3 à 8, pour simuler des hyperfixations plus oumoins intenses. L’analyse consiste à calculer larestitution de contraste pour chacune des sphères.Ce paramètre est le rapport entre le contrastemesuré dans l’image et le contraste réel mis dans lefantôme.

Exactitude de la quantificationDu fait des corrections d’atténuation, de diffusionet des coïncidences aléatoires, la plupart des TEPpermettent, au moyen d’un étalonnage, d’accéderà une quantification absolue. Cela signifie que cha-cun des pixels de l’image peut être exprimé enunité de concentration radioactive (kBq/ml). L’ob-jectif de ce test est de vérifier la corrélation entreles concentrations mesurées et les concentrationsréelles. Ces mesures sont menées avec le cylindreéquipé des inserts cylindriques remplis d’uneconcentration supérieure au bruit de fond.L’analyse consiste à calculer l’erreur entre la

concentration réelle et la concentration détermi-née au moyen d’une région d’intérêt. Pour que lesrésultats ne soient pas affectés par l’effet de vo-lume partiel, les régions d’intérêt doivent êtreéloignées des bords de l’objet d’une distance égaleà deux fois la résolution spatiale du système.

Contrôle de qualité

Le contrôle de qualité vise à effectuer des testssimples, rapides et itératifs, qui permettent desuivre l’évolution de l’appareillage et de mettre enœuvre les calibrations nécessaires, avant que desdéfauts significatifs n’apparaissent sur les imagescliniques.67

La nature de ces contrôles dépend fortement dessystèmes. Les paramètres les plus systématique-ment vérifiés sont :

• la stabilité des détecteurs en émission : vérifi-cation du gain des photomultiplicateurs ;

• la stabilité de la réponse en énergie des détec-teurs ;

• l’uniformité de la coupe reconstruite enémission/transmission ;

• l’exactitude de la quantification.Ces deux derniers paramètres sont mesurés au

moyen d’un cylindre de 68Ge ou de 18F. Les fantô-mes, ainsi que les procédures de contrôle de qua-lité sont généralement fournis par le constructeur.La mise en œuvre des tests journaliers peut êtreeffectuée par un technicien ou un physicien. Lacorrection des variations observées nécessite unebonne maîtrise du système et est effectuée par lephysicien ou le technicien de maintenance.

Optimisation des acquisitions

En TEP, la qualité de l’image est fortement influen-cée par l’optimisation de très nombreux paramè-tres qu’il convient d’optimiser :

• l’activité injectée ;• la durée des mesures en émission et en trans-mission ;

• le traitement des données de transmission ;• l’algorithme et le filtrage pour la reconstruc-tion des données d’émission.Cette optimisation repose sur une bonne

connaissance du système et une compréhension desalgorithmes proposés par le constructeur. Pour yparvenir, l’emploi d’un fantôme anthropomorphi-que (thorax/cerveau) peut se révéler extrêmementutile. Ces fantômes permettent de tester les per-formances du tomographe dans des conditions plusproches de la clinique que celles observées avec lesfantômes décrits dans les spécifications NEMA. Cetravail doit être effectué dans le cadre d’un parte-nariat étroit entre les cliniciens, les physiciens etéventuellement les ingénieurs des firmes.

Réalisation pratique d’un examenet autres paramètres influant surla qualité de l’image

L’obtention d’une image en TEP résulte d’une suc-cession d’étapes. La qualité du résultat final reposesur de nombreux paramètres, qui peuvent êtreoptimisés pour améliorer les performances diagnos-tiques de l’examen. Le protocole de réalisation desimages dépend du traceur, ainsi que des possibilitésoffertes par le tomographe utilisé.

27Principe et technique de la tomographie par émission de positons (TEP)

Préparation du patient

Les indications reportées ci-dessous concernent lesexamens corps entier réalisés au 18FFDG en oncolo-gie. Plusieurs équipes ont publié des recommanda-tions pour standardiser et assurer la qualité desexamens.71,86 Afin d’optimiser les performancesdiagnostiques de l’examen au 18FFDG, il est néces-saire de réduire les fixations physiologiques du tra-ceur et de respecter un certain délai entre l’injec-tion du traceur et la réalisation des images. Enpremier lieu, il est important que le patient soit àjeun depuis plusieurs heures, afin de ne pas s’expo-ser à une hyperglycémie.54 La glycémie doit sesituer entre 4 et 7 mmol/l au moment de l’injectiondu traceur. L’injection doit être réalisée dans unepièce calme. Le patient doit être au repos entrel’injection et l’acquisition des images. Dans la plu-part des équipes, une prémédication comportantune benzodiazépine à visée myorelaxante est géné-ralement prescrite. Il est également possible d’in-duire une relaxation des muscles du tube digestifgrâce à un antispasmodique intestinal. L’examenTEP commence 45 à 90 minutes après l’injection.L’activité à injecter dépend de la caméra TEP et

du mode d’acquisition sélectionné (mode 2D ou3D). Elle varie de 150 à 550 MBq en fonction desdifférents systèmes. Plus la caméra TEP est perfor-mante en taux de comptage, plus il est possibled’augmenter les activités injectées, dans le desseinde réduire la durée des acquisitions. L’activité in-jectée est également déterminée en fonction dupoids du patient. Cela est particulièrement impor-tant lors de la réalisation des examens chez desenfants. Dans la mesure du possible, les bras dupatient sont en abduction pendant l’acquisition,afin de réduire le phénomène d’atténuation.

Acquisition des données

La plupart des acquisitions effectuées en oncologiesont des examens du corps entier, avec un champde vue longitudinal important qui s’étend généra-lement du pli inguinal à la base du crâne.La procédure d’acquisition est décomposée en

un certain nombre de pas de déplacement de latable d’examen au travers de l’anneau de la ca-méra. Le nombre de pas est déterminé en fonctiondu champ de vue longitudinal de la caméra, de lazone de recouvrement nécessaire entre deux pasd’acquisition et de la longueur du volume exploré.Le lit se déplace automatiquement à la fin del’acquisition d’un pas, pour enchaîner automati-quement la mesure en position suivante. Pour cha-cune des positions de lit, une mesure de transmis-sion est généralement associée à la mesure

d’émission. Cette double acquisition permet, par lasuite, d’effectuer la correction d’atténuation et dequantifier les images. Les performances des instru-ments, en termes de sensibilité et de taux decomptage réel, influent sur la durée totale del’examen. La durée de chacun des pas d’émissionvarie de 2 à 10 minutes, en fonction des performan-ces des différents systèmes. Les mesures de trans-mission sont généralement assez rapides, de l’ordrede 1 à 3 minutes par pas. L’utilisation d’un TDMprésente l’avantage de mesurer l’ensemble du vo-lume en moins de 2 minutes. Au total, la durée desacquisitions est très dépendante des performancesen émission et en transmission de la caméra TEP.L’arrivée de nouveaux scintillateurs, la généralisa-tion du mode d’acquisition 3D et le couplage avecle TDM permettent de réaliser des examens corpsentier en moins de 20 minutes.

Analyse des images

À l’issue de l’acquisition, les images sont recons-truites en utilisant de préférence des algorithmesitératifs, afin d’éviter les zones aveugles au voisi-nage des régions hyperfixantes. Plusieurs recons-tructions doivent être effectuées afin d’améliorerla qualité du diagnostic. En effet, il semble impor-tant d’analyser systématiquement les images avecet sans la correction d’atténuation. Cela permet debénéficier des avantages des deux reconstructions,et ainsi de mieux discriminer les artefacts d’originephysique des fixations pathologiques du traceur.L’image corrigée de l’atténuation permet la quan-tification de l’examen, une bonne localisation ana-tomique et une bonne visualisation des structuresprofondes. En revanche, les limites des champspulmonaires peuvent être altérées par un défaut dela segmentation de la carte de transmission.L’image sans correction d’atténuation permet unemeilleure visualisation des lésions peu profondes,et également des nodules pulmonaires de petitetaille qui ne sont pas vus par l’image de transmis-sion à basse résolution spatiale.L’analyse des images proprement dite s’effectue

au moyen d’une interface de visualisation interac-tive qui affiche, pour un voxel donné, les coupesaxiales, sagittales et coronales (Fig. 20). Il estgénéralement possible d’épaissir les coupes, afinde faciliter la détection des hyperfixations. Unfenêtrage de l’image permet de sélectionner lagamme des niveaux de l’image que l’on souhaitevisualiser. Cette opération de fenêtrage de la dyna-mique revient à allouer l’ensemble de la palette decouleurs sur une portion de la dynamique del’image. Cela est particulièrement important pourles examens au 18FFDG, du fait de l’accumulation

28 O. de Dreuille et al.

de traceur dans la vessie et de la fixation intensedans le cerveau, qui se traduit par une dynamiquetrès étendue.

Ressources informatiques

Le volume des données généré pour une acquisitionen TEP corps entier est bien supérieur à celui desexamens de médecine nucléaire conventionnelle,où les acquisitions tomographiques sont réaliséessur un plus petit volume et où les acquisitions corpsentier sont effectuées en mode planaire. Typique-ment, plus de 300 coupes axiales peuvent êtreobtenues pour une acquisition réalisée de la tête aupelvis. Le volume de données pour un patient enTEP peut facilement atteindre 100 à 200 Mo, du faitdes mesures en émission et en transmission, et desdifférentes reconstructions effectuées. L’ensembledes opérations effectuées pour chaque patient :reconstruction itérative, correction d’atténuation,nécessite des ressources informatiques importan-tes, tant du point de vue du stockage des donnéesque de la puissance de calcul des ordinateurs. Lamanipulation des images TEP nécessite des puissan-ces de calcul importantes, et l’archivage des ima-ges requiert de grandes capacités de stockage, parrapport aux données obtenues sur les gamma-caméras.

Radioprotection et contraintesd’installation

L’injection d’un produit radioactif pour la réalisa-tion d’un examen diagnostique entraîne une expo-

sition du patient et du personnel technique. Lesisotopes utilisés en TEP sont caractérisés par uneémission d’un positon et l’émission de photonsgamma pénétrants de 511 keV. La réalisation d’unexamen TEP comprend également des mesures detransmission réalisées soit au moyen de sourcesradioactives, soit au moyen d’un TDM, qui ajoutentune irradiation pour le patient.

Dosimétrie patient

L’exposition du patient résulte d’une part du dépôtd’énergie du positon sur un parcours très faible etd’autre part des interactions des photons de511 keV au sein du patient. Les doses reçues par lepatient dépendent en premier lieu de l’isotopeutilisé, en raison de l’énergie d’émission des posi-tons et de la période radioactive. L’exposition desdifférents organes varie en fonction du métabo-lisme, de l’élimination des différentes moléculesmarquées et de l’âge du patient. Elle peut êtresignificativement différente pour deux traceursmarqués avec le même isotope. Le Tableau 3 four-nit pour le 18FFDG l’équivalent de dose efficaceainsi que les doses absorbées pour les tissus les plusirradiés.26, 38, 39 Les activités injectées varient en-tre 150 et 550 MBq, ce qui entraîne une doseefficace se situant entre 2,8 et 10 mSv. Ces valeurssont du même ordre que celles observées pour desexamens scintigraphiques réalisés avec du 99mTc oupour certaines explorations TDM.En pratique, l’exposition du patient résulte de

l’injection du traceur, mais également de l’examen

Figure 20 Analyse dans les trois plans de coupe d’un examen FDG en mode corps entier acquis par le C-PET™ en émission/transmissionen 1 heure. L’image de la projection calculée fournit une représentation volumique de la distribution du traceur (hôpital d’instructiondes Armées du Val de Grâce. C-PET™. Adac-Philips). Illustration clinique à partir d’un cas de masse tumorale maligne pulmonairepostérieure droite.

29Principe et technique de la tomographie par émission de positons (TEP)

de transmission. Almeida a mesuré les équivalentsde dose efficace correspondant à une mesure detransmission de 15 minutes avec des sources degermanium 68 de 555 MBq.4 Elles sont de 0,1 mSvpour un examen cardiaque et de 0,04 mSv pour unexamen cérébral. Ces valeurs sont négligeables parrapport aux doses efficaces dues à l’injection dutraceur. En revanche, l’utilisation d’une TDM poureffectuer la mesure de transmission peut entraînerdes niveaux d’équivalent de dose du même ordreque ceux résultant de l’injection du traceur. Uneadaptation des protocoles d’acquisition de l’exa-men TDM peut être effectuée, en vue de réduire lesdoses (adaptation du kV, du mA et du pas en scan-ner hélicoïdal) sans nuire de manière importante àla qualité des images produites.

Radioprotection

L’émission b+, du fait de son faible parcours, a uneincidence négligeable en termes d’exposition vis-à-vis du personnel. Les positons résultants d’une dé-sintégration d’un atome de 18F sont totalement

absorbés par une épaisseur de verre de 0,9 mm oupar une épaisseur de plastique de 2,7 mm.L’exposition du personnel résulte du rayonne-

ment gamma de 511 keV. Cette énergie élevée, parrapport aux émetteurs couramment utilisés en mé-decine nucléaire (140 keV pour le 99mTc), imposeune conception des locaux adaptée et l’acquisitiond’équipements de manipulation des sources appro-priés. Le Tableau 4 fournit des éléments pour lecalcul des débits de dose et de l’épaisseur desécrans nécessaires pour les principales énergiesrencontrées en médecine nucléaire. L’analyse deces données souligne l’aspect particulier des émet-teurs de positons. Ainsi, les débits de dose sont septfois plus importants que ceux du 99mTc, et lescouches de demi-atténuation (CDA) sont 13 foisplus épaisses que celles relatives aux photons de140 keV.Une note de l’Office de protection des rayonne-

ments ionisants (note OPRI n° 3520 – 2000) préciseun certain nombre de critères qui doivent êtrerespectés :

• une salle doit être dédiée à ce type d’examen.Cette salle doit être ventilée en dépression etrespecter un taux de renouvellement en air decinq volumes par heure. Les parois de ce localdoivent être adaptées à l’énergie du radioélé-ment émetteur de positons. La source de réfé-rence doit être d’activité égale à l’activitémaximale présente dans ce local lors d’un exa-men ;

• une salle d’attente doit être dédiée aux pa-tients injectés en 18FFDG ;

• le laboratoire chaud doit être équipé d’uneenceinte ventilée en dépression adaptée à lamanipulation du 18FFDG. Le débit de dose aucontact de ce dispositif doit être, dans tous lescas, inférieur à 25 Sv/h. Des cellules blindéesde 40 à 50 mm de plomb et équipées de verreau plomb d’une épaisseur supérieure ou égaleà 80 mm permettent de satisfaire amplement àce critère ;

Tableau 3 Dose absorbée et dose efficace par unité d’acti-vité injectée (lGy/MBq) de fluorodéoxyglucose 18F. Les orga-nes les plus exposés, paroi vésicale, myocarde et cerveau,rendent compte de la distribution et de l’élimination dutraceur. Compte tenu des activités injectées chez l’adulte(de 150 à 550 MBq), la dose efficace varie entre 2,8 et10 mSv. Ces valeurs sont du même ordre de grandeur quecelles observées par les examens réalisés avec du technétium99m ou pour certaines explorations tomodensitométriques.

Organes Adulte 15 ans 10 ans 5 ans 1 anParoi vésicale 160 210 280 320 590Myocarde 62 81 120 200 350Cerveau 28 28 30 34 48Ovaires 15 20 30 44 82Testicules 12 16 26 38 73Utérus 21 26 39 55 100Dose efficace(lSv/MBq)

18 25 37 51 95

Tableau 4 Principales grandeurs permettant de calculer les débits de dose et l’épaisseur des écrans pour les différentes énergiesrencontrées en médecine nucléaire. L’analyse de ces données souligne l’aspect particulier des émetteurs de positons : les débitsde dose sont sept fois plus importants que ceux du technétium 99m, et les couches de demi-atténuation (CDA) sont treize fois plusépaisses que celles relatives aux photons de 140 keV.

Radionucléide Énergie c (keV) Expositionexterne(mSv h–1)

Constante dedébit de KermaC20(lGy m–2 GBq–1 h–1

CDA (cm Pb) C 1/10e A (cmPb)

A 1 m d’unflacon

Au contactd’une seringue

(37 MBq) (37 MBq)99mTc 140 0,67 × 10–3 13 14,5 0,03 0,1131I 360 1,8 × 10–3 39 51 0,3 1,118F 511 4,8 × 10–3 96 135 0,4 1,6

30 O. de Dreuille et al.

• la protection radiologique des containers detransport, des protège-seringues et des pou-belles destinées au recueil des déchets ra-dioactifs solides doit également être adaptée àl’énergie du 18FFDG. Des protège-seringues entungstène, d’une épaisseur de 5 mm, ont étédéveloppés spécifiquement pour cette applica-tion.Plusieurs études ont estimé les doses moyennes

reçues par le manipulateur, pour la totalité de laréalisation d’un examen TEP : préparation de laseringue, injection, positionnement du patient etacquisition des images.15 Les doses mesurées (dosi-mètre poitrine) sont de l’ordre de 5 Sv pour uneactivité injectée voisine de 150 MBq, dans un ser-vice équipé d’enceinte, de protège-seringues etd’un poste de pilotage blindé spécifiquement pourdes photons de 511 keV.21 La phase la plus irra-diante est l’injection du produit. Lors de ce geste,des expositions de l’ordre de 200 Sv par examenpeuvent être reçues aux niveaux des extrémi-tés.47,51

Les débits de dose mesurés à 50 cm du patientsont respectivement de 0,21 Sv/h/MBq après l’in-jection du produit, de 0,13 Sv h–1 MBq–1 lors de lamise en place du patient sur le TEP, 60 minutesaprès l’injection et de 0,06 Sv h–1 MBq–1 2 heuresaprès l’injection lorsque le patient quitte le ser-vice.47

Les niveaux d’exposition correspondant à unposte de technicien réalisant les examens TEP res-tent inférieurs aux limites réglementaires, sansêtre toutefois négligeables. Ce constat justifie lesaménagements particuliers, ainsi que l’acquisitiondes dispositifs de radioprotection spécifiques. Cesniveaux d’exposition justifient le classement desmanipulateurs en catégorie A et la mise en œuvrede la dosimétrie opérationnelle.21 Les dosimètresélectroniques fournissent les débits de doses entemps réel. Il peut en résulter une amélioration duposte de travail qui entraîne une réduction desdoses reçues relatives à des actes particuliers.

Vers l’imagerie multimodale

La localisation anatomique précise des hyperfixa-tions n’est souvent pas évidente sur les images, parmanque de références anatomiques, seules lesstructures fixant le traceur étant visualisées. Enrevanche, les images obtenues avec la TDM ou l’IRMfournissent de manière très précise la localisationdes structures anatomiques. Ces deux images sontcomplémentaires et, mises en correspondance oufusionnées, elles permettent d’exploiter au mieuxl’apport de chaque type d’imagerie. De nombreux

travaux sont actuellement en cours dans ce do-maine.

Recalage d’images

La première approche se fonde sur des techniquesde recalage d’images, qui permettent l’analysecorrélée de données mesurées sur des appareilsindépendants. Pour y parvenir, il est nécessaire detransférer les deux jeux de données sur une plate-forme commune. Le transfert des images est faci-lité par l’utilisation de plus en plus généralisée duprotocole DICOM. Les algorithmes de mise en cor-respondance les plus utilisés actuellement se fon-dent sur la maximisation de l’information mutuelle.Le recalage des images cérébrales est d’utilisationcourante et ne pose pas de difficulté majeure, carles structures sont rigides et sans déformation im-portante.29,56 En revanche, au niveau du thorax etde l’abdomen, ces caractéristiques ne sont plusvérifiées. Les mouvements respiratoires ainsi que lepositionnement du patient font que des images destructures identiques dans les deux modalités nepeuvent être mises en correspondance sans défor-mation numérique non rigide.78 Pour les explora-tions thoraciques et abdominales, ces méthodessont relativement difficiles à mettre en œuvre dufait des déformations observées entre les deuxséries d’images. Cependant, l’acquisition de l’exa-men TDM en respiration intermédiaire permet delimiter les défauts de mise en correspondance(Fig. 21).

Caméra TEP/TDM

Pour s’affranchir des méthodes de recalage, l’en-semble des industriels proposent des appareilsTEP/TDM qui réalisent, dans la durée d’examen,ces deux acquisitions. Les avantages de ces équipe-ments sont nombreux. La correction d’atténuationse fonde sur l’examen TDM, qui est réalisé beau-coup plus rapidement que les acquisitions de trans-mission mesurées avec des sources radioactives.Par ailleurs, la fusion des images permet une excel-lente localisation anatomique des foyers fixant leFDG (Fig. 22). Cette double information est parti-culièrement utile pour l’optimisation des balisti-ques de radiothérapie.42,61,82

Plusieurs travaux ont évalué l’apport diagnosti-que des systèmes hybrides TEP/TDM. Ces systèmespermettent une amélioration du diagnostic et de lastadification de la maladie cancéreuse,41 par laconnaissance anatomique des lésions détectées enTEP, comparée à l’analyse des images mesurées pardes appareils d’imagerie distincts. L’exploitationdes images corrélées facilite également l’identifi-

31Principe et technique de la tomographie par émission de positons (TEP)

cation de la topographie des fixations non patholo-giques (fixation musculaire, fixation colique et sé-quelles inflammatoires de radiothérapie).1,44

Le couplage TEP/TDM est un outil intéressant enpratique clinique, sous réserve qu’un certain nom-

bre d’aspects techniques soient pris en compte. Lescoupes TDM sont obtenues dans un intervalle detemps extrêmement réduit, et elles ne correspon-dent pas rigoureusement aux images d’émissionmesurées pendant plusieurs minutes. Les modifica-

Figure 21 Analyse d’images de tomographie par émission de positons (TEP) et de tomodensitométrie (TDM) recalées au moyen d’unalgorithme de mise en correspondance basé sur la maximisation de l’information mutuelle.A. Images TDM.B. Images TEP/TDM fusionnées (hôpital d’instruction des Armées du Val de Grâce, C-PE™ – Adac-Philips). Ce cas clinique, chez unpatient présentant une atélectasie pulmonaire gauche, au sein de laquelle siège une tumeur maligne bronchique périhilaire, illustrel’intérêt de la fusion d’image pour la définition du volume cible en radiothérapie.

Figure 22 Acquisition quasi simultanée des données sur une machine hybride équipée de scintillateurs LSO et d’un TDM double-coupe.L’association du scintillateur, du mode d’acquisition 3D et de l’acquisition TDM permet d’effectuer cette acquisition en 17 minutes(Baptist University. Biograph Lso-Duo Siemens). Illustration clinique : tumeur maligne médiastinale antérosupérieure droite (flèche).

32 O. de Dreuille et al.

tions du positionnement du patient (mouvements,respiration) entre les images TEP et TDM peuventgénérer des artefacts au moment de la correctiond’atténuation.30,46 Une approche logicielle de re-calage peut être utilisée pour s’affranchir de cephénomène. Il est également important de s’assu-rer que le champ de vue en TDM soit suffisammentlarge pour réaliser l’image d’un patient ayant lesbras le long du corps, afin d’éviter des phénomènesde troncature. Ces phénomènes peuvent, s’ils nesont pas corrigés, générer des artefacts de recons-truction.13 Il est également nécessaire de disposerd’outils de segmentation de l’image TDM pour lacorrection de l’atténuation des données TEP, entenant compte éventuellement des produits decontraste utilisés en TDM.9

Les machines hybrides proposées actuellementsont relativement diverses dans leur conception,tant du point de vue du détecteur TEP que de celuidu scanner X. Il existe toute une gamme de produitsdepuis la gamma-caméra64 jusqu’au TEP équipésdes nouveaux scintillateurs, qui sont couplés à desscanners X de différentes générations, y comprisdes systèmes multicoupes.

Conclusion

La tomographie par émission de positons est unemodalité d’imagerie médicale qui permet de détec-ter de manière très sensible des accumulations detraceur dans des lésions de petite taille. Les res-sources informatiques associées aux caméras à po-sitons permettent aujourd’hui de visualiser de ma-nière interactive un grand nombre de coupestomographiques. Le potentiel de la tomographiepar émission de positons est considérable en onco-logie, et les développements technologiques relati-vement récents permettent à cette techniqued’être pleinement adaptée aux exigences clini-ques.De nombreuses innovations ont été concrétisées

ces dernières années. Il s’agit de la généralisationdu mode d’acquisition tridimensionnel, de l’utilisa-tion de nouveaux scintillateurs, et du couplageavec la TDM. C’est l’ensemble de ces technologiesqui permet aujourd’hui une réduction importantede la durée des examens.La TEP permet aux services cliniques d’utiliser

une large gamme de traceurs aux potentiels trèsprometteurs pour les explorations oncologiques.Cet enjeu a été pris en compte par les autorités, etune politique de développement de la techniqueest mise en œuvre. Celle-ci se traduit par l’autori-sation de mise sur le marché du 18FFDG et par uneouverture du nombre d’autorisations de tomogra-

phes à émission de positons dans des services clini-ques insérés dans des réseaux de cancérologie.Ce nouveau marché a entraîné des investisse-

ments massifs de la part des industriels pour fournirdes TEP équipés de nouveaux scintillateurs, afin derépondre pleinement aux attentes des cliniciens.Enfin, la fusion d’un TEP et d’un TDM dans un mêmeappareil traduit la complémentarité des différen-tes modalités d’imagerie médicale pour le diagnos-tic et l’évaluation des traitements en cancérologie.

Références

1. Adam LE, Karp JS, Daube-Witherspoon ME, Smith J. Perfor-mance of a whole-body PET scanner using curve-plate NaI(Tl) detectors. J Nucl Med 2001;42:1821–1830.

2. Adam LE, Karp JS, Freifelder R. Energy based scattercorrection for 3D PET scanners using NaI (Tl) detectors.IEEE Trans Nucl Sci 2000;19:513–521.

3. Allemand R, Gresset C, Vacher J. Potential advantages of acesium fluoride scintillator for a time of flight positroncamera. J Nucl Med 1980;21:153–155.

4. Almeida P, Bendriem B, De Dreuille O, Arnaud P, Perrot C,Brulon V. Dosimetry of transmission measurements innuclear medicine: a study using anthropomorphic phan-toms and thermoluminescent dosimeters. Eur J Nucl Med1998;25:1435–1441.

5. Bar-Shalom R, Keidar Z, Engel A. A new combined dedi-cated PET/CT system in the evaluation of cancer patients.J Nucl Med 2001;42:34P.

6. Bénard F, Smith RJ, Hustinx R, Karp J, Alavi A. Clinicalevaluation of processing techniques for attenuation cor-rection with Cs-137 in whole-body PET imaging. J Nucl Med1999;40:1257–1263.

7. Bendriem B, De Dreuille O. Détection de positons : princi-pes et instrumentation. RBM Rev Eur Technol Biomed1998;7:114–122.

8. Bentourkia M, Msaki P, Lecomte. Assessment of scattercomponents in high-resolution PET: correction by nonsta-tionary convolution substraction. J Nucl Med 1995;36:121–130.

9. Beyer T, Townsend D. Dual-modality PET/CT imaging:CT-based attenuation correction in the presence of CTcontrast agents. J Nucl Med 2001;42:56P.

10. Beyer T, Townsend DW, Brun T, Kinahan PE, Charron M,Roddy R, et al. A combined PET/CT scanner for clinicaloncology. J Nucl Med 2000;41:1369–1379.

11. Brix G, Zaers J, Adam LE, Bellemann ME, Ostertag H,Trojan H. Performance evaluation of whole-body PET scan-ner using the NEMA protocol. J Nucl Med 1997;38:1614–1623.

12. Brook RA, Di Chiro G. Principes of computer assistedtomography in radiographic and radioisotope imaging. PhysMed Biol 1976;21:689–732.

13. Carney J, Townsend D, Kinahan P. CT-based attenuationcorrection: the effect of imaging with the arms in the fieldof view. J Nucl Med 2001;42:56P.

14. Casey MR, Nutt R. A multicrystal two-dimensional BGOdetector system for positron emission tomography. IEEETrans Nucl Sci 1986;33:460–463.

33Principe et technique de la tomographie par émission de positons (TEP)

15. Chiesa C, De Sanctis V, Crippa F, Bombardieri E. Radiationdose to technicians per nuclear medicine procedure: com-parison between technetium-99m, galium-67, iodine-131radiotracers and fluorine-18 fluorodeoxyglucose. Eur JNucl Med 1997;24:1380–1389.

16. Colsher JG. Fully three-dimensional positron emissiontomography. Phys Med Biol 1980;25:103–115.

17. Darcourt J, Koulibaly O, Migneco. Méthodes itératives dereconstruction. Rev ACOMEN 1998;4:100–107.

18. De Dreuille O, Bernard C, Foehrenbach H, Maszelin P,Gaillard JF. Quantification en tomographie par émission depositons en pratique clinique. Méd Nucl 2001;25:389–394.

19. De Dreuille O, Brasse D, Bendriem B, Coronne C, Lamer O,Gaillard JF, et al. Détection en coïncidence sur gammacaméra conventionnelle : principes et performances. MédNucl 1999;23:81–92.

20. De Dreuille O, Brasse D, Groiselle C, Bendriem B, Roc-chisani JM, Gaillard JF, et al. Évaluation des performancesde la détection des émetteurs de positons au moyen d’unegamma-caméra. Méd Nucl 2000;24:139–152.

21. De Dreuille O, De Carbonnière H, Briand-Champlong J,Foehrenbach H, Guevel E, Maszelin P, et al. Expérience dedosimétrie opérationnelle dans un service de médecinenucléaire. Méd Armées 2002;30:213–218.

22. De Dreuille O, Foehrenbach H, Maszelin P, Bonardel G,Vaylet F, Gaillard JF. État de l’art et évolutions tech-nologiques actuelles en tomographie par émission de posi-tons. Méd Nucl 2002;26:67–78.

23. De Dreuille O, Strijckmans V, Almeida P, Loc’h C, Ben-driem B. Bone equivalent liquid solution to assess accuracyof transmission measurements in SPECT and PET. IEEETrans Nucl Sci 1997;44:1186–1190.

24. Defrise M, Kinahan PE, Townsend DW. Exact and approxi-mate rebinning algorithms for 3D PET data. IEEE Trans MedImaging 1997;16:145–158.

25. Defrise M, Townsend DW, Clarck R. Three-dimensionalimage reconstruction from complete projections. PhysMed Biol 1989;34:573–587.

26. Dosimétrie des explorations diagnostiques en MédecineNucléaire. 2001 Rapport SFPM n 19.

27. Dubois F. Reconstruction des images tomographiques parrétroprojection filtrée. Rev ACOMEN 1998;4:92–99.

28. Erwin WD, Groch MW, Spires SM. Performance evaluationof a new generation slotted thick NaI crystal gamma cam-era system. J Nucl Med 2000;42:206P.

29. Foehrenbach H, De Dreuille O, Mangin JF, Levêque C,Delaye F, Lathuillière JM, et al. Mise au point d’uneplate-forme de recalage multimodalité automatiqued’images cérébrales pour une utilisation clinique. MédNucl 1999;23:221–232.

30. Goerres GW, Kamel E, Heidelberg TN, Schwitter MR,Burger C, Von Schulthess GK. PET-CT image co-registrationin the thorax: influence of respiration. Eur J Nucl Med2002;29:351–360.

31. Hamberg LM, Hunter GJ, Nathaniel. The dose uptake ratioas an index of glucose metabolism: useful parameter oroversimplification? J Nucl Med 1994;35:1308–1312.

32. Hawkins RA, Hoh C, Glaspy J, Choi Y, Dahlbom M,Messa C, et al. The role of positron emission tomography inoncology and other whole-body applications. Semin NuclMed 1992;22:268–284.

33. Herman RG, Meyer LB. Algebraic reconstruction tech-niques can be made computationally efficient. IEEE TransMed Imaging 1993;12:600–609.

34. Hoffman EJ, Huang SC, Phelps ME, Kuhl DE. Quantitation inpositron emission tomography: 4. Effet of accidental coin-cidences. J Comput Assist Tomogr 1981;5:391–400.

35. Hoffman EJ, Huang SC, Plummer D, Phelps ME. Quantita-tion in positron emission tomography: 6. Effet of nonuni-form resolution. J Comput Assist Tomogr 1982;6:987–999.

36. Hudson HM, Larkin RS. Accelerated image reconstructionusing ordered subsets of projection data. IEEE Trans MedImaging 1994;13:601–609.

37. Huesman RH. The effects of a finite number of projectionangles and finite lateral sampling of projection on thepropagation of statistical errors in transverse sectionreconstruction. Phys Med Biol 1977;22:511–521.

38. Recommandations of the international commission onradiological protection. Oxford: Pergamon Press; 1984ICRP publication 53.

39. Recommandations of the international commission onradiological protection. Oxford: Pergamon Press; 1991ICRP publication 60.

40. Jatteau M, Berche C. Review of image reconstructiontechniques in medical transaxial computed tomography.Ann Radiol 1983;26:13–22.

41. Kamel EM, Goerres G, Dizendrof E. Image fusion of whole-body FDG-PET and spiral CT in staging of bronchogeniccarcinoma. J Nucl Med 2001;42:35.

42. Kiffer JD, Berlangieri SU, Scott AM, Quong G, Feigen M,Schumer W, et al. The contribution of 18F-fluoro-2-deoxy-glucose positron emission tomographic imaging to radio-therapy planning in lung cancer. Lung Cancer 1998;19:167–177.

43. Kinahan PE, Roger JG. Analytical 3D image reconstructionusing all detected events. IEEE Trans Nucl Sci 1989;36:964–968.

44. Kluetz P, Meltzer C, Villemagne V. Combined PET/CT imag-ing in oncology: impact on patient management. ClinPositron Imag 2000;6:223–230.

45. Koeppe RA, Hutchins CD. Instrumentation for positronemission tomography: tomographs and data processing anddisplay systems. Semin Nucl Med 1992;22:162–181.

46. Kohlmyer S, Mattes D, Vesselle H. Application of CT attenu-ation maps in PET with respiratory motion correction usinggate segmented registration (GSR). J Nucl Med 2001;42:139P.

47. Laffont S, Devillers A, Garin E, Chaori E, Defain P, Bour-guet P. Contraintes de radioprotection et dosimétriepatient et personnel d’une unité de tomographie par émis-sion de positon. Méd Nucl 2001;25:395–400.

48. Lange K, Carson R. EM reconstruction algorithms for emis-sion and transmission tomography. J Comput Assist Tomogr1984;8:306–316.

49. Langen KJ, Braun U, Rota Kops E, Herzog H, Kuwert T,Nebeling B, et al. The influence of plasma levels onfluorine-18-fluorodeoxyglucose uptake in bronchial carci-nomas. J Nucl Med 1993;34:355–359.

50. Laval M, Moszynski M, Allemand R. Barium fluoride inor-ganic scintillator for subnanosecond timing. Nucl InstMethod 1983;206:169–176.

51. Le Bars D. L’environnement d’une caméra TEP. RevACOMEN 1999;5:165–168.

52. Lecoq P, Korzhik M. Scintillator developments for highenergy physics and medical imaging. IEEE Trans Nucl Sci2000;47:1311–1314.

53. Levin CS, Hoffman EJ. Calculation of positron range and itseffect on the fundamental limit of positron emissiontomography system spatial resolution. Phys Med Biol 1999;44:781–799.

54. Lindholm P, Minn H, Leskinen-Kallio S, Bergman J, Ruot-salainen U, Joensuu H. Influence of the blood glucoseconcentration on FDG uptake in cancer: a PET study. J NuclMed 1993;34:1–6.

34 O. de Dreuille et al.

55. Liu X, Defrise M, Michel C, Sibomana M, Comtat C, Kina-han P, et al. Exact rebinning methods for three-dimensional PET. IEEE Trans Med Imaging 1999;18:657–664.

56. Mangin JF, Frouin JF, Bloch I, Bendriem B, Lopez-Krahe J.Fast nonsupervisted 3D registration of PET and MR image ofthe brain. J Cereb Blood Flow Metab 1994;14:749–762.

57. Melcher CL. Scintillation crystals for PET. J Nucl Med2000;41:1051–1055.

58. Melcher CL, Schweitzer JS. Cerium-doped lutetiumoxyorthosilicate: a fast efficient new scintillator. IEEETrans Nucl Sci 1992;39:502–505.

59. NEMA NU 2-1994. Performances measurements of positronemission tomography. Washington DC: National ElectricalManufacturers Association; 1994.

60. NEMA NU 2-1999. Performances measurements of positronemission tomography. Washington DC: National ElectricalManufacturers Association; 2000.

61. Nestle U, Walter K, Schmidt S, Licht N, Nieder C, Mot-aref B, et al. 18F-deoxyglucose positron emission tomogra-phy (FDG-PET) for the planning of radiotherapy in lungcancer: high impact in patients with atelectasis. Int JRadiat Oncol Biol Phys 1999;44:593–597.

62. Ollinger JM. Model-based scatter correction for fully 3DPET. Phys Med Biol 1996;41:153–176.

63. Pagani M, Stone-Elander S, Larsson SA. Alternative positronemission tomography with non-conventional positronemitters: effets of their physical properties on imagequality and potential clinical applications. Eur J Nucl Med1997;24:1301–1327.

64. Patton JA, Delbeke D, Sandler MP. Image fusion using anintegrated, dual-head coincidence camera with X-raytube-based attenuation maps. J Nucl Med 2000;41:1364–1368.

65. Ramos CD, Erdi YE, Gonen M, Riedel E, Yeung HW, Macap-inlac HA, et al. FDG-PET standardized uptake values innormal anatomical structures using iterative reconstruc-tion segmented attenuation correction and filtered back-projection. Eur J Nucl Med 2001;28:155–164.

66. Reivich M, Kuhl D, Wolf A, Greenberg J, Phelps M,Ido T, et al. The 18F.fluorodeoxyglucose method for themeasurement of local cerebral glucose utilization in man.Circ Res 1979;44:127–137.

67. Riggin SL, Kilroy J, Smith R. Clinical PET imaging with theC-PET Camera. J Nucl Med Technol 2000;28:23–28.

68. Rigo P, Paulus P, Jerusalem G, Bury T. Indications cliniquesde la tomographie par émission de positons au 18F-FDG enoncologi.e. Expérience préliminaire et revue de la littéra-ture. Méd Nucl 1995;19:73–89.

69. Saha GB, Macintyre WJ, Go RT. Cyclotrons and positronemission tomography radiopharmaceuticals for clinicalimaging. Semin Nucl Med 1992;22:150–161.

70. Saoudi A, Lecomte R. A novel APD-based detector modulefor multi-modality PET/SPECT/CT scanners. IEEE TransNucl Sci 1999;46:479–484.

71. Schelbert HR, Hoh CK, Royal HD, Brown M, Dahlbom MN,Dehdashti F, et al. Procedure guideline for tumor imagingusing fluorine-18-Fdg. Society of Nuclear medicine. J NuclMed 1998;39:1302–1305.

72. Schomburg A, Bender H, Reichel C, Sommer T, Ruhlmann J,Kozak B, et al. Standardized uptake values of fluorine-18fluorodeoxyglucose: the value of different normalizationprocedures. Eur J Nucl Med 1996;23:571–574.

73. Smith RJ, Karp JS, Muehllehner G, Benard F, Alavi A,Gualtieri E. A comparison of segmentation and emissionsubstraction for singles transmission in PET. IEEE TransNucl Sci 1998;45:1212–1218.

74. Smith RJ, Karp JS, Muehllehner G, Gualtieri E, Benard F.Singles transmissions scans performed post-injection forquantitative whole body PET imaging. IEEE Trans Nucl Sci1997;44:1329–1335.

75. Strother SC, Casey ME, Hoffman EJ. Measuring Pet scannersensitivity: related count rate to image signal to noiseratios using noise equivalent counts. IEEE Trans Nucl Sci1990;77:783–788.

76. Sugawara Y, Zasadny KR, Neuhoff AW, Wahl RL. Reevalua-tion of the standardized uptake value for FDG: variationswith body weight and methods for correction. Radiology1999;213:521–525.

77. Surti S, Karp JS, Freifelder R, Liu F. Optimizing the perfor-mance of a PET detector module using discrete GSO crystalon a continous lightguide. IEEE Trans Nucl Sci 2000;47:1030–1036.

78. Tai YC, Lin KP, Hoh CK, Huang H, Hoffman EJ. Utilization of3D elastic transformation in the registration of Chest X-rayCT and whole-body PET. IEEE Trans Nucl Sci 1997;44:1606–1612.

79. Ter-Pogossian MM. The origins of positron emission tomog-raphy. Semin Nucl Med 1992;22:140–149.

80. Ter-Pogossian MM, Phelps ME, Hoffman EJ. A positron-emission transaxial tomograph for nuclear imaging (PETT).Radiology 1975;114:89–98.

81. Turkington T, Sampson WH, Coleman RE. Characteristics ofa rotating gamma camera with 1-inch sodium iodine detec-tors for SPECT and PET. J Nucl Med 2001;5:98P.

82. Vanuytsel LJ, Vansteenkiste JF, Stroobants SG, De Leyn PR,De Wever W, Verbeken EK, et al. The impact of (18)F-fluoro-2-deoxy-D-glucose positron emission tomography(FDG-PET) lymph node staging on the radiation treatmentvolumes in patients with non-small cell lung cancer. Radio-ther Oncol 2000;55:317–324.

83. Vuillez JP. Métabolisme glucidique des cellules tumorales :conséquences pour l’utilisation de radiopharmaceutiquesanalogues du glucose. Méd Nucl 1998;22:9–29.

84. Weber WA, Schwaiger M, Avril N. Quantitative assessmentof tumor metabolism using FDG-PET imaging. Nucl Med Biol2000;27:683–687.

85. Xu M, Luk WK, Cutler PD, Digby WM. Local threshold forsegmented attenuation correction of PET imaging of thethorax. IEEE Trans Nucl Sci 1994;41:1532–1537.

86. Young H, Baum R, Cremerius U. Measurement of clinicaland subclinical tumor response using 18F-fluorodeoxyglucose and positron emission tomography.Review and 1999 EORTC recommendations. Eur J Cancer1999;35:1773–1782.

35Principe et technique de la tomographie par émission de positons (TEP)