52
Manuel SPM 8 pour les nuls Mickaël Causse Institut supérieur de l’Aéronautique et de l’Espace, Toulouse [email protected]

New Manuel SPM 8 pour les nulsmickael.causse.free.fr/medias/courses/ManuelfrancaisSPM8.pdf · 2017. 10. 10. · Manuel SPM 8 pour les nuls Mickaël Causse Institut supérieur de l’Aéronautique

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

  • Manuel SPM 8 pour les nuls

    Mickaël Causse

    Institut supérieur de l’Aéronautique et de l’Espace, Toulouse

    [email protected]

  • 1

    Remarques introductives

    Ce document est un tutoriel destiné aux étudiants ou chercheurs débutants n’ayant pas ou très peu de

    notions concernant l’exploitation concrète des données issues de protocoles IRMf via SPM 8 (situation

    rencontrée un jour par tout un chacun). La vocation modeste de ce manuel est d’être le tutoriel le plus

    simple possible. Les fonctions principales du logiciel sont abordées via un exemple de protocole de

    neuroeconomie. Chaque étape de traitement à réaliser est décrite de la façon la plus compréhensible

    possible et est illustrée de captures d’écrans explicites. Ce document ne se substitue évidemment en rien

    au manuel SPM 8 officiel du FIL qui apportera des informations infiniment plus larges et approfondies

    (URL). A la fin du document, « quelques logiciels indispensables » sont présentés, car SPM 8 ne fait pas

    tout. Si vous constatez la moindre erreur (impossible de ne pas en faire…), n’hésitez pas à écrire un mail

    pour le signaler).

  • 2

    Sommaire

    1. Prétraitements temporels et spatiaux .............................................................................................. 3

    1.1. Conversion des images depuis le format DICOM vers ANALYSE ......................................................... 3

    1.2. SLICE TIMING .................................................................................................................................... 6

    1.3. REALIGN .......................................................................................................................................... 10

    1.4. CO-REGISTRATION........................................................................................................................... 15

    1.5. NORMALISE..................................................................................................................................... 20

    1.6. Lissage (SMOOTH) ........................................................................................................................... 23

    2. Analyses de premier niveau (1st-level) ........................................................................................... 27

    3. Estimation des paramètres (estimate) ............................................................................................ 34

    4. Analyses des résultats (Results) ...................................................................................................... 36

    4.1. Définir un contraste ........................................................................................................................ 36

    5. Analyses de second niveau (2nd-level) ........................................................................................... 41

  • 3

    1. Prétraitements temporels et spatiaux

    1.1. Conversion des images depuis le format DICOM vers

    ANALYSE

    Lorsqu’on n’a pas eu la chance d’obtenir des images bien structurées par sessions (comme c’est

    agréablement le cas pour les images au format NIFTI), les fichiers bruts générés par l’IRM peuvent être

    au format DICOM (par exemple c’est le cas pour les caméras Phillips). Les fichiers DICOM comportent un

    header décrivant l’ensemble des informations caractérisant l’acquisition (TR de la machine etc.).

    Classiquement, SPM nécessitait des fichiers au format ANALYZE formés de fichiers correspondants à

    l’ensemble des coupes d’un volume cérébral, accompagnés par un fichier séparé correspondant à l’en-

    tête (ou header) du volume et précisant les paramètres de celui-ci (date, temps d’écho, temps de

    répétition etc.). La transformation depuis le format DICOM vers le format ANALYZE est prise en charge

    par SPM depuis la version 5. Les nouvelles versions de SPM (depuis la version 5) permettent de prendre

    en charge directement le format NIFTI, généré par de nombreux modèles d’IRM. Le formatage des

    images n’est donc plus nécessaire dans bien des cas.

    Figure 1 : Image générée par le scanner au format DICOM. Généralement les fichiers ont une extension .dcm, mais

    il arrive que ce ne soit pas le cas comme dans cet exemple.

  • 4

    Figure 2 : Fonction d'importation d'images au format DICOM de SPM 8.

    Après conversion, on obtient des images au format ANALYZE compatible avec SPM8. Le plus simple

    est de créer un répertoire différent des images d’origine pour les stocker. Il peut également être pratique

    de les classer par run. Bien regarder le nom des fichiers dont le nombre s’incrémente au fur et à mesure

    des runs (le nombre de volume par run est en principe le même s’ils sont de même durée). Il arrive

    parfois qu’un run soit interrompu, à ce moment là le nombre de volume sera inférieur aux autres runs, il

    convient de mettre de coté ces données.

  • 5

    Figure 3 : Image au format ANALYZE.

    Si l’on décide d’effectuer l’étape de co-registration, repérer le 3D anatomique pondéré en T1 (d’une

    taille généralement supérieure aux images fonctionnelles). On peut en faire une copie à la racine du

    répertoire du participant pour le repérer plus facilement. Ne pas oublier de copier également le fichier

    .HDR du volume anatomique. Si l'on rajoute le préfixe « 3D » dans le nom du fichier pour le mettre en

    évidence, ne pas oublier d'en faire de même pour le fichier .HDR.

    Avant de se lancer dans les traitements temporels et spatiaux de 1er

    niveau, il convient de définir des

    batchs. Les batchs permettent d'éviter de réaliser les manuellement toutes les étapes de prétraitements

    en les appelant une par une via les boutons de l'interface de SPM. On crée tout d’abord un Batch

    « modèle » décrivant tous les prétraitements afin d'éviter de refaire un batch pour chaque participant.

    Une fois terminé, ce batch lancera la série des prétraitements et aucune intervention ne sera nécessaire

    jusqu'à la fin de ces derniers. Nous effectuerons un batch différent par participant, il est à noter qu’il est

    possible d’effectuer un batch pour l’ensemble des participants .La méthode participant par participant

    permettra de vérifier le résultat à chaque fois pour chacun d'entre eux plutôt que d'attendre que

    l'intégralité des prétraitements soit terminée.

  • 6

    Figure 4 : Dans l'éditeur de Batch on décrit une par une les étapes du prétraitement. Dans le menu SPM, les items

    Temporal et Spatial permettent de spécifier les prétraitements.

    1.2. SLICE TIMING

    Le slice timing (temporal processing) effectue la correction du décalage d’acquisition entre les

  • 7

    coupes. En effet, par exemple, avec un TR = 2.47 secondes et une méthode ou les coupes sont acquises

    du bas vers le haut du cerveau (ordre ascendant), la coupe la plus haute est systématiquement acquises

    2.47 secondes après la coupe la plus basse. Le signal n’est plus le même entre la 1ere coupe et la

    dernière puisque ce dernier est dynamique. Evidemment l’impact de ce décalage est particulièrement

    important pour les acquisitions événementielles et avec une méthode d’acquisition non entrelacée. La

    correction proposée par SPM consiste simplement à ramener, par interpolation temporelle, l’instant

    d’acquisition de toutes les coupes à un instant commun, qui est l’instant d’acquisition d’une des coupes

    du volume que l’on qualifiera coupe de référence (typiquement, une coupe occupant une place centrale

    dans le volume). Lors des analyses statistiques, on considérera ensuite que les coupes du volume on été

    acquises simultanément.

    Figure 5 : 1ere étape de remplissage du Batch, le Slice Timing.

  • 8

    DATA : on crée autant de session que de runs réalisés. Notre étude comporte 4 sessions. On clique

    quatre fois sur « New session ». Si une session doit être effacée, on reclique sur DATA puis « Delete:

    session ».

    NUMBER OF SLICE : 38. Le nombre de slices (coupes) par volume. Ce nombre est vérifiable via

    MRIcro en ouvrant un volume fonctionnel.

    TR : 2.47. Le temps de réaction de l'IRM pour acquérir un volume complet, depuis la 1ere slice d'un

    volume à la 1ere slice du prochain. Ne pas confondre avec le TR dans le HEADER (.hdr) des fichiers

    ANALYZE qui lui représente le temps d'acquisition par slice. Il se calcule comme suit :TR = nombre de

    coupe par volume * TR par slice (38*0.065 = 2.47 secondes).

    TA : 2.405. Le temps d'acquisition. Pour l'obtenir, on soustrait le temps d'acquisition d'une coupe au

    TR total par volume : TA = TR – (TR/nmbr slices par volume) (2.47 - 0.065). Cela donne le temps entre le

    début d'acquisition de la 1e coupe d'un volume et celui du début d'acquisition de la dernière coupe d'un

    volume.

    Slice Order : 1:1:24. L'ordre d'acquisition (ascendant ou descendant, entrelacé ou non). Dans notre

    étude l'ordre était ascendant (depuis la base du cerveau vers le sommet) non entrelacé. La coupe la plus

    basse étant la numéro 1, notre ordre était 1 2 3 ... 24 ou autrement dit 1:1:24 (de 1 à 24 avec un pas de

    1).

    REFERENCE SLICE : 19. La coupe qui permet d'estimer la correction temporelle du signal.

    Généralement la coupe en milieu de volume.

    PREFIX : a. Le préfixe qui sera écrit devant le nom des fichiers nouvellement crée. Par défaut 'a'.

  • 9

    Figure 6 : Slice timing complété.

  • 10

    Résultats du slice timing

    • Fichiers :

    o anom du fichier.hdr, anom du fichier.img : Les images fonctionnelles réécrites

    avec décalage temporel corrigé.

    1.3. REALIGN

    Cette étape consiste à corriger (via des transformations affines rigides) les mouvements de têtes se

    produisant pendant les acquisitions. Ils peuvent créer des artefacts, généralement des faux positif

    (souvent visibles après les traitements par un ensemble de pixels en périphérie du cerveau, la

    « couronne »). Le réalignement peut également permettre de générer une mean image, une d’image

    moyenne représentative de toutes les autres. Elle sera utile lors de l’étape de normalisation.

    Dans le batch, on sélectionne estimate and reslice. SPM estimera les mouvements (estimate) et

    écrira une nouvelle copie des images réalignées (reslice). On peut effectuer ces étapes séparément en

    sélectionnant seulement estimate ou bien reslice lorsque l'on a déjà réalisé l'estimate. En théorie cette

    étape doit être effectuée en 1er

    si l'acquisition est sérielle. Lorsque cette dernière est entrelacée, le

    realign devrait être fait en second afin d'éviter de déplacer par erreur des voxels de coupes adjacentes

    mais lointains dans le temps.

    DATA

    SESSION : On recrée 4 sessions qui correspondent à nos 4 runs et on laisse le contenu vierge pour

    pouvoir réutiliser le batch pour chaque participant par la suite en spécifiant pour chacun les volumes. A

    ce moment là deux options s'offriront à nous. Pour chacune des 4 sessions, on peut sélectionner

    directement les volumes traités précédemment et portant le prefixe 'a'. On peut sinon plus simplement

    cliquer sur « dependancy » et récupérer directement pour chaque session ces volumes en sélectionnant

    l'item décrivant le résultat de l'étapes précédentes.

  • 11

    Figure 7 : Fonction dependancy permettant de sélectionner les volumes issus du realign pour les 4 sessions.

    La fonction Dependancy permet d'éviter de sélectionner tous les volumes en spécifiant simplement

    les fichiers sur lesquels travailler, pour chaque session. La liste des dependancy s'incrémente au fur et à

    mesure de la chaine des traitements effectués dans le batch.

    ESTIMATE OPTIONS

    QUALITY : 0.9 par défaut. Ce chiffre va de 0 à 1 et représente le nombre de voxels impliqués dans le

    calcul du réalignent. Le calcul le plus précis se fait par la valeur 1 mais prendra plus de temps.

    SEPARATION : 4 par défaut. Il s'agit de la séparation en mm entre les points pris en compte dans

    l'image de référence. Un chiffre plus petit sera plus précis mais rendra le traitement plus lent.

    SMOOTHING : 5 par défaut, pour les images IRM. Specifie le FWHM (full width at half maximum,

    l'écart entre les deux valeurs se situant à la moitié de la valeur maximale au sein de la courbe de gauss)

    du lissage gaussien appliqué aux images.

  • 12

    NUM PASSES : Register to first, par défaut, pour les images IRM. L’image de référence sur laquelle on

    réaligne les autres images. En PET on sélectionne plutôt l'image moyenne car les images sont de moins

    bonne qualité.

    INTERPOLATION : 2nd degree b-spline, par défaut. plus on augmente le nombre de degrés, meilleure

    est l'estimation, mais on augmente le temps de traitement

    Wrapping : No Wrap, par défaut.

    Weighting : Laisser vide, par défaut. Cet item n'est à spécifier que lorsque de nombreux artefacts

    apparaissent.

    RESLICE OPTIONS

    RESLICED IMAGES : all images + mean image, par défaut. Réécrit toutes images spécifiées dans l’item

    Data (images ou dependancy spécifiées) + la mean image qui sera utile lors de la co-registration.

    INTERPOLATION : 4th degree b-spline, par défaut. Spécifie la méthode de sampling des images.

    WRAPPING : laisser vide, par défaut.

    MASKING : mask images, par défaut. Permet d'éliminer les voxels 0 ou NaN de l’ensemble de la série

    d’images, c'est à dire ceux se trouvant en dehors du cerveau sur au moins une image (artefacts pouvant

    être du par exemple à de la buée ou aux mouvements du participant).

    FILENAME PREFIX : r, par défaut.

  • 13

    Figure 8 : Realign complété.

    Après l'estimate on obtient une figure sauvegardée dans le courant. Cette figure est sauvegardée

    dans le répertoire courant, il est conseillé d’en faire une copie dans le répertoire du participant. Il est à

    noter que des pages seront ajoutées à ce document lors des prochaines étapes. La figure représente les

    6 paramètres de mouvements (x y z en translation et rotation). Des mouvements allant jusque 5 degrés

    et 5 mm sont considérés acceptables (10 degrés et 10 mm pour certains auteurs). Ces figures au format

    .ps peuvent être ultérieurement via le logiciel GHOST VIEW (qui doit être installé avec GHOST SCRIPT).

    On peut également vérifier si l'étape s'est bien passée en faisant défiler une série de volumes dans

    MRIcro (après avoir construit un fichier 4D avec la série de volumes).

  • 14

    Figure 9 : Les translations et rotation sur les 3 axes sont affichées.

  • 15

    Résultats du realign

    • Affichage :

    o Des paramètres de réalignement, translation et rotation sur les 3 axes (tangage,

    roulis, lacet).

    • Fichiers :

    o ranom du fichier.hdr, ranom du fichier.img : Images fonctionnelles réécrites avec

    réalignement effectué.

    o Rp_nom du fichier.txt : fichier texte contenant les paramètres de correction des

    mouvements (6 colonnes de valeur pour les 6 paramètres).

    o Date du jour.PS : création du fichier contenant l’affichage des paramètres de

    réalignement. Il est écrit dans le répertoire courant de Matlab. Il peut être lu avec

    ghostview ou pageview.

    1.4. CO-REGISTRATION

    La co-registration est un traitement intra participant rigide permettant de réaligner des volumes de

    modalités différentes (T1, T2, PET…). Cette étape est optionnelle mais peut être utile si on veut afficher

    les activations d’un participant sur son propre 3D du participant (essentiel pour la rtms). Une alternative

    est simplement d'effectuer la normalisation des EPI réalignés sur le template EPI juste après l'étape du

    realign sans effectuer de co-registration.

    Au cours de cette étape, seule le 3D anatomique sera modifié, on utilisera le produit de cette

    transformation lors de l’étape de normalisation. Sélectionner coreg estimate (ne pas sélectionner reslice,

    ici on ne crée par d'image, on calcule simplement des matrices de transformation qui seront ajoutées

    dans un header et réutilisées à l’étape de normalisation). Cette étape va permettre de calculer la matrice

    permettant de réaligner rigidement le 3D anatomique aux images fonctionnelles, en fait, à la mean

    image, « représentative » des EPI.

  • 16

    REFERENCE IMAGE : mean image, l'image qui va servir de modèle. Dans DEPENDANCY on sélectionne

    realign estimate and reslice : mean image.

    SOURCE IMAGE : le 3d anatomique pondété en T1. L'image va être réalignée sur les 6 axes à l'image

    de référence.

    OTHER IMAGES : Laisser vide, par défaut. Pour information, cette option peut être utile lorsque l’on

    souhaite appliquer le même réalignement que celui appliqué à l’image source à toute une série d’image.

    Par exemple, si l’on veut réaligner une séquence d’image fonctionnelle (PET par exemple) sur un T1. On

    sélectionnera image de référence : T1, Image source : Mean PET, other images : PET1.img , PET2.img… Il

    faut noter que le paramètre estimé issu de la co-registration du 3D sur la mean image sera dans le

    header du volume 3D anatomique (on peut vérifier le fait qu’il a été effectivement modifié via la date de

    modification du fichier .hdr) et pourra donc être réutilisé ultérieurement lors de l'étape de

    normalisation.

    ESTIMATE OPTION

    OBJECTIVE FUNCTION : normalized mutual information, par défaut. Cet item permet de réaliser des

    registrations inter-modales (ex. T1 vers T2).

    SEPARATION : [4 2], par défaut. La distance en mm entre les points lors de l'échantillonnage. Un

    vecteur afin de permettre une registration grossière puis plus fine.

    TOLERANCES : [0.02 0.02 0.02 0.001 0.001 0.001 0.01 0.01 0.01 0.001

    0.001 0.001], par défaut. Les itérations stoppent lorsque la différence entre deux estimations

    successives est inférieure à la tolérance spécifiée.

    HISTOGRAM SMOOTHING : [7 7], par défaut.

    RESLICE OPTION : cette série d'option n'apparaitra pas puisque l'on n'effectue pas le reslice.

    Cependant, elles sont détaillées ci-dessous.

    INTERPOLATION : trilinear, par défaut. Avec des images IRM, il peut être intéressant d'accroitre

    légèrement le temps de traitement en augmentant le paramètre qualité à 3rd degree B-spline.

    WRAPING : no wrap, par défaut.

    MASKING : don't mask image, par défaut.

    FILENAME PREFIX : r, par défaut. Comme le reslice n’est pas réalisé ici, nous n'obtiendrons pas

    d'images portant ce préfixe.

  • 17

    Figure 10 : Les différents items de la co-registration doivent être spécifiés.

    A l’issu de cette étape on obtient une figure permettant de vérifier le résultat de la co-registration.

    On peut naviguer via le curseur pour vérifier la bonne correspondance entre les structures de la mean

    image (à gauche) et du 3D réaligné (à droite). Il faut également bien vérifier l’allure du volume, (pas

    tronqué par ex.). Il est possible de vérifier ultérieurement le résultat de la co-registration grâce à la

    fonction check reg de SPM. Pour ce faire l’utilitaire permet de sélectionner plusieurs volumes (ex. Le 3D

    T1 et la mean image) afin de vérifier leur correspondance.

  • 18

    Figure 11 : Affichage du résultat de la co-registration.

  • 19

    Figure 12 : Localisation de la fonction Check Reg.

    Résultats de la co-regisration

    • Affichage :

    o Résultat de la co-registration.

    • Fichiers :

    o 3d anat du participant.HDR : le fichier .HDR du volume 3d est modifié et contient

    les paramètres de transformation.

  • 20

    o Date du jour.PS : le fichier est mis à jour (une page ajoutée) avec les résultats de

    la co-registration.

    1.5. NORMALISE

    Etape incontournable pour toute étude de groupe, les EPI de chaque participant sont plongés dans

    un repère commun. Les transformations sont non rigides (ou élastique). SPM Chaque voxel d'un

    participant correspondra au voxel d'un autre participant. Les EPI réalignés sont normalisés en leur

    appliquant les paramètres de transformation issus du réalignement du 3D transformé (en fait les

    paramètres de réalignement issu de la co-registration) sur le templateT1 MNI.

    Selectionner normalise estimate & write.

    DATA : New Subject.

    SOURCE IMAGE : Le T1 réaligné sur la mean image. C’est elle qui sera réalignée au template. Dans

    dependancy, selectionner coreg: Estimate: Coregistered images. SPM génèrera une série de calcul qui

    sera appliquée aux EPI réalignés.

    SOURCE WEIGHTING IMAGE : laisser vide, par défaut. Permet de sélectionner des images afin de co-

    registrer des images de cerveaux anormaux ou lésés. Ces images doivent contenir des séries de 0 dans

    les zones des lésions.

    IMAGES TO WRITE : les EPI réalignés. Dans Dependancy, selctionner realign: estimate & reslice:

    resliced images. Le faire pour les 4 sessions.

    ESTIMATE OPTION

    TEMPLATE IMAGE : TEMPLATE, T1.nii. Le cerveau « idéal » de SPM. On selectionne une image T1

    puisque le type d'image doit être identique à celui de l'image source. Si nous n'avions pas effectué de co-

    registration, il aurait simplement fallu normaliser les EPI realignées sur le template EPI de SPM.

    TEMPLATE WEIGHTING IMAGE : 0 files, par défaut.

    SOURCE IMAGE SMOOTHING : 8mm, par défaut. Le lissage appliqué à l'image source. Le lissage doit

    être proche de celui du template. Celui de SPM est lissé à 8mm.

    Template Image Smoothing. 0, par défaut. Utile si l'on ne sélectionne pas le template SPM.

  • 21

    AFFINE REGULARISATION : ICBM, par défaut. Permet de co-registrer dans un espace précis.

    NONLINEAR FREQUENCY CUTOFF : 25, par défaut.

    NONLINEAR ITERATIONS : 16, par défaut.

    NONLINEAR REGULARISATION : 1, par défaut.

    WRITING OPTIONS

    PRESERVE : preserve concentration, par défaut. Permet de conserver l'intensité des images d'origine.

    BOUDING BOX : [-78 -112 -50 ; 78 76 85], par défaut. La taille du bounding box à écrire en mm.

    VOXEL SIZE : [3 3 3]. Définit la méthode de recoupage de l'image. On entre 3 entiers représentatifs

    de la taille moyenne des voxels de nos EPI (vérifiable via MRIcro). Dans notre cas les voxels étaient à

    l’origine de [3, 3, 3.75].

    INTERPOLATION : trilinear, par défaut.

    WRAPPING : no wrap, par défaut.

    FILE NAME PREFIX : w, par défaut.

    Figure 13 : Les différents items de la normalisation

    A l’issu de la normalisation on obtient également une figure permettant de vérifier le résultat.

  • 22

    Figure 14 : Affichage du résultat de la normalisation.

  • 23

    Résultats de la normalisation

    • Affichage :

    o Résultat de la normalisation.

    • Fichiers :

    o wranom du fichier.hdr, wranom du fichier.img : Images fonctionnelles réécrites avec

    normalisation effectuée.

    o nom du 3d anat du participant.HDR : le fichier .HDR du volume 3d est modifié et

    contient les paramètres de transformation.

    o Date du jour.PS : le fichier est mis à jour (une page ajoutée) avec les résultats de

    la normalisation.

    o nom du 3d anat du participant_SN.MAT : un fichier contenant les paramètres de

    transformation est crée.

    1.6. Lissage (SMOOTH)

    IMAGES TO SMOOTH : les EPI normalisées, issus de la chaine de traitement précédent. Dans

    dependancy sélectionner "normalise: estimate & write: normalised image.

    FWHM : 8 8 8, par défaut. Spécifie le lissage gaussien. Lors d’une analyse de groupe, il faut 2 à 3 fois

    la résolution des EPI. Une analyse intra participant se contente d'un lissage de 1.5 à 2 fois la résolution

    des EPI. Attention de ne pas spécifier un lissage trop important, cela pourrait écarter de petites

    activations.

    DATA TYPE : same, par défaut. Format des images générées.

    IMPLICIT MASKING : NO, par défaut.

    FILENAME PREFIX : s, par défaut. Nos images comporteront donc au final les préfixes s (smooth) w

    (normalize) r (realign) a (slice timing)

  • 24

    Figure 15 : Smooth complété.

    • Affichage :

    o Résultat du smooth.

    • Fichiers :

    o swranom du fichier.hdr, swranom du fichier.img : Images fonctionnelles réécrites

    avec smooth effectué.

  • 25

    Spécification finale du batch pour chaque participant

    On reprend le batch vierge que l'on copie et renomme avec le nom du participant et l'on finit de

    compléter pour chaque participant :

    SLICE TIMING : les EPI. Pour les 4 sessions (runs). Dans notre cas, 281 fichiers par session.

    Figure 16 : Les fichiers des sessions sont désormais spécifiés.

  • 26

    COREGISTRATION : le T1 du participant.

    Figure 17 : Le 3d du participant est désormais spécifié. On peut lancer le batch (le bouton play est devenu vert).

  • 27

    2. Analyses de premier niveau (1st-level)

    Les analyses de 1er niveau (ou statistiques individuelles) permettent de spécifier les différentes

    conditions expérimentales pour chaque participant. Il est possible de créer un batch contenant toutes les

    conditions expérimentales subies pour l’ensemble des participant. Cette analyse dite « fixed effect » sera

    moins conservatrice qu’une vraie analyse de second niveau dite « random effect », prenant en compte la

    variabilité inter individuelle. En pratique, les analyses « fixed effect » ne sont pas vraiment

    publi(ées)ables. Ici, nous créons un batch pour chaque participant, les résultats de cette analyse de 1er

    niveau seront utiles lors de l’analyse de 2nd

    niveau.

    Figure 18 : Localisation de la fonction d’analyse de 1er

    niveau.

  • 28

    DIRECTORY : le répertoire dans lequel la matrice du design expérimental sera écrite (SPM.mat). Il est

    pratique de créer un répertoire au préalable (ex : output_1st_level) afin de s’y retrouver.

    2.1. Préparation des ONSETS

    Il s’agit d’un préalable incontournable avant de pouvoir spécifier les analyses de 1er niveau. SPM doit

    connaitre le moment précis ou chaque stimulus est envoyé au participant. Ces informations sont

    généralement contenues dans le fichier de résultat généré par le logiciel qui a permis d’administrer les

    stimuli et de récupérer les réponses si elles existaient (ainsi que les temps de réaction par exemple). Il

    faut donc repérer le moment ou est lancé chaque stimulus et le classer en fonction des conditions

    expérimentales. Dans certains logiciels, comme COGENT, il est possible de générer directement un

    fichier ascii ou .mat lisible directement par SPM au moment de spécifier les ONSETS. Il est à noter que les

    ONSETS sont à spécifier en termes de T0 + et l’unité peut être en SCAN (volumes) ou secondes. Les

    données doivent avoir la mise en forme illustrée ci-dessous, ou l’unité est en SLICES puis transformée en

    SCANS (colonnes rouges, 661/ 38 = 17.394…).

    Figure 19 : Illustration des données temporelles des stimuli qui permettront de spécifier les ONSETS. Le logiciel

    ayant généré ces données est COGENT.

  • 29

    Figure 20 : Illustration des données temporelles organisées par RUNS.

    Dans notre expérimentation il y’avait 4 runs et 6 conditions par runs.

    TIMING PARAMETERS

    UNITS FOR DESIGN : SCAN. L’unité choisie pour spécifier les ONSETS. Elle peut être en seconde ou en

    scans.

    INTERSCAN INTERVAL : 2.47, le TR de la machine (temps entre le début de l’acquisition de la 1ere

    slice d’un volume et le début de l’acquisition de cette slice dans le volume suivant).

    MICROTIME RESOLUTION : 38. Par défaut, le nombre de slices par volume. Cette valeur spécifie le

    nombre de points d’échantillonnage de la fonction HRF. En cas de longs TR machine, il est possible de

    modifier cette valeur pour aligner les régresseurs sur une slice particulière.

    MICROTIME ONSET : 19. La première coupe ou débutera l’échantillonnage du régresseur afin de

    coïncider avec l’acquisition de données. Généralement on fait correspondre cette valeur avec la coupe

    de référence sélectionnée lors du slice timing. Dans notre cas, la coupe du milieu.

    DATA & DESIGN

    SCANS : on sélectionne ici les volumes ayant subi l’ensemble de la chaine de prétraitements, ils

    portent les 4 préfixes s w r a.

    CONDITIONS : on crée autant de conditions que l’on a de variables manipulées. Elles étaient au

    nombre de 3 avec deux niveaux chacune (relation croisée : 2 types d’incitation (neutre / financier) * 2

    niveaux d’incertitude (faible / élevé) * 2 types de stimuli (décision / feedback).

  • 30

    NAME : Nom de la condition. Une chaine de caractère précisant le nom de la condition. Trouver un

    nom court et faisant du sens pour vous et d’autres personnes pouvant être amenées à explorer vos

    données.

    ONSETS : t1, t2, t3… On entre le vecteur spécifiant le temps de présentation de chaque stimulus

    appartenant à la catégorie concernée. Ils peuvent être entrés en secondes ou en SCANS.

    Figure 21 : Spécification du vecteur d’ONSETS.

    Dans notre exemple, les ONSETS sont spécifiés en SCANS (volumes). Il faut noter que les valeurs

    contiennent des décimales puisqu’un événement se produit généralement quelque part au milieu d’un

    SCANS, les décimales permettent de spécifier une slice (time-bin) particulière au sein d’un volume.

    DURATIONS : 0. Dans un design en bloc, c'est-à-dire avec une répétition rapide d’un même type de

    stimulus, on entre la durée du bloc. Pour un design événementiel, on entre la valeur 0. Cela part du

    postulat que le stimulus est rapidement traité puisque cette valeur influe la nature des régresseurs, une

    valeur plus élevée implique notamment de maintenir un plateau d’échantillonnage (hypothèse de

  • 31

    linéarité et de stationnarité).

    TIME MODULATION : no time modulation. Permet de moduler les régresseurs de façon linéaire et

    non linéaire, par exemple pour modéliser le changement de la réponse hémodynamique au cours du

    temps.

    PARAMETRIC MODULATION : permet de moduler directement la HRF, par exemple pour tenir

    compte des temps de réaction, si on fait l’hypothèse que des TR plus longs impliqueront une réponse

    hémodynamique plus tardive.

    MULTIPLE CONDITION : laisser vide par défaut. Permet d’ouvrir un fichier .Mat contenant le design

    expérimental avec les variables et leur niveau. Cela permet d’éviter les étapes précédentes si le logiciel

    utilisé pour la gestion des stimuli génère directement ce fichier.

    REGRESSORS : permet d’ajouter une colonne supplémentaire dans la matrice du design, ce qui

    permet de spécifier des effets qui ne seront pas pris en compte lors de la convolution de la réponse

    hémodynamique, par exemple la valeur du premier mouvement.

    MULTIPLE REGRESSORS : Rp_nom du fichier.txt. Permet d’introduire à la main ou via un fichier .mat

    ou .txt contenant une suite de régresseurs qui ne seront pas pris en compte lors de la convolution. Il est

    fortement conseillé ici d’introduire les fichiers .txt produits à l’issu du réalignement. En effet, même si les

    images ont été recalées, quelques voxels peuvent encore se déplacer au cours du temps, SPM pouvant

    interpréter les déplacements et interversions de voxels comme de fausses activations. Il est plus prudent

    de spécifier ici les traitements appliqués.

    HIGH PASS FILTER : 128, par défaut. Filtre passe haut permettant d’éliminer les dérivées lentes. Bien

    faire attention à ne pas éliminer de la variance due au protocole expérimental.

    FACTORIAL DESIGN : laisser vide par défaut. Il est possible de spécifier le nom des variables et leur

    nombre de niveaux. SPM calculera automatiquement les contrastes des effets principaux et les

    interactions. Il faut d’abord entrer les variables qui évoluent le moins puis celles qui varient le plus.

    BASIS FUNCTION

    CANONICAL HRF

    MIDEL DERIVATIVES : No derivatives, par défaut. Time derivatives permet au pic de la HRF (réponse

    canonique) de varier de plus ou moins une seconde et la dispersion derivative permet de faire varier la

    largeur de la réponse de la même quantité. Ces valeurs permettent donc de prendre en compte la

    dispersion inter participant et inter voxels.

    MODEL INTERACTIONS (Voltera) : do not model interactions, par défaut.

  • 32

    GLOBAL NORMALISATION : none, par défaut. Permet de spécifier la méthode de normalisation

    globale des données. Chaque méthode estime le signal IRMf moyen du cerveau, en se basant sur les

    unités de SCANS et de SESSIONS.

    EXPLICIT MASK : laisser vide par défaut. Permet de charger un masque tel qu’une image structurelle

    ou le résultat d’une segmentation. Cela permet de restreindre au masque le nombre de voxels explorés.

    SERIAL CORRELATIONS : AR, par défaut. Permet d’exclure des analyses des phénomènes réguliers qui

    ne seront pas modulés dans notre modèle. Par exemple, les biorythmes respiratoires, le rythme

    cardiaque etc.

    Résultats de l’analyse de premier niveau (1st-level)

    • Affichage :

    o Design expérimental en colonnes

    • Fichiers :

    o SPM.MAT : écriture du design expérimental.

    Spécification finale du batch pour chaque participant

    On reprend le batch vierge que l'on copie et renomme avec le nom du participant et que l'on finit de

    compléter pour chaque participant en spécifiant tous les ONSETS (un par stimulus). Une fois le batch

    lancé, on obtient la description du design expérimental. Dans l’exemple ci-dessous apparaissent les 4

    conditions expérimentales + les 6 régresseurs de mouvements. Apparait également une constante (en

    gros la moyenne des échantillonnages non modélisés, représentée en blanc) qui est calculée pour

    chaque run, elle fait office de « repos » si aucune condition contrôle n’est réalisée. Le nombre de trial

    par session est également précisé. Ici apparait 4 4 4 4 ce qui correspond au 4 conditions de chaque run.

    En réalité 20 stimuli par conditions étaient présentés, mais un vecteur complet d’ONSET est considéré

    comme un trial unique (l’héritage des designs en block).

  • 33

    Figure 22 : Illustration Affichage du design expérimental. On peut observer l’ensemble des régresseurs par session

    (4 conditions + 6 régresseurs de mouvements).

  • 34

    3. Estimation des paramètres (estimate)

    Figure 23 : Localisation de la fonction d’estimation.

    SELECT SPM.MAT : SPM.MAT. Le fichier issu de l’analyse de 1er niveau

    METHOD : Classical, par défaut.

  • 35

    Figure 24 : On sélectionne le fichier .mat issu de l’analyse de 1er

    niveau.

    Résultats de l’estimation (estimate)

    • Fichiers :

    o SPM.MAT : le fichier est modifié. Il contient désormais les détails sur la matrice

    du design expérimental, les images analysées, les volumes, les estimations et les

    résultats.

    o beta_0001.img, beta_0001.hdr… : écrits dans le même répertoire que le fichier

    SPM.MAT issu de l’analyse de premier niveau. Ces images contiennent les

    paramètres estimés pour chaque colonne de la matrice du design expérimental

    o mask.img, mask.hdr : des images masque contenant des 0 et 1 indiquant les

    voxels devant être analysés au sein des volumes.

  • 36

    4. Analyses des résultats (Results)

    4.1. Définir un contraste

    La spécification des contrastes permet d’opposer les conditions expérimentales entre elles. Par

    exemple dans le cas ou était présentes 4 sessions avec 2 conditions financières différentes, soit un enjeu

    financier était présent (« Financier ») soit il n’y avait pas d’enjeu financier durant la tâche (« neutre »). Le

    participant illustré ci-dessous à effectué les runs dans l’ordre suivant : Financier / Neutre / Financier /

    Neutre (Chaque condition monétaire était répétée deux fois). Ainsi, le contraste qui permettra

    d’observer les régions cérébrales les plus activées durant la condition financière sera :

    1 1 0 0 0 0 0 0 -1 -1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 -1 -1 0 0 0 0 0 0

    Les 2 premiers « 1 » donnent un effet positif au stimulus ou était présent l’incitation financière. Les

    six « 0 » suivant sont les 6 régresseurs de mouvements qui ne doivent pas être convolués. La série des six

    chiffres suivant concernent la session 2, réalisée sans pression financière. Les deux premiers « 1 » sont

    précédés du signe négatif puisque nous cherchons à faire ressortir l’effet supérieur de l’incitation

    financière par rapport à la condition neutre. Il est pratique de définir l’ensemble des contrastes pour

    chaque participant, par exemple sous Excel. In ne restera ensuite plus qu’à copier coller les cellules de

    contrastes (l’ensemble de 0 et de 1) dans SPM. C’est également une précieuse sauvegarde en cas de

    perte des fichiers de contrastes.

    Il est important de spécifier les contrastes dans le même ordre (les conditions) car ce sera pratique

    lors de l’analyse de second niveau qui nécessite de sélectionner dans l’ordre pour tous les participants

    les volumes contenant les contrastes (.con), et ces derniers n’ont pas de nom, seulement un numéro.

  • 37

    Figure 25 : Il est pratique de spécifier les contrastes à l’avance pour chaque volontaire.

    Le manager de contraste de SPM permet de spécifier les comparaisons pertinentes. Il est possible de

    réaliser des analyses unilatérales (t) ou bi-latérales (f), ces dernières ne donnent pas la direction du

    changement entre les contrastes.

  • 38

    Figure 26 : Spécification des contrastes via le manager de contrastes de SPM

    Il n’est malheureusement pas possible d’effacer des contrastes entrés par erreur ou que l’on juge

    inutile. Il faut effacer l’ensemble des fichiers créés lors de l’étape d’estimation (beta_0001.img,

    beta_0001.hdr mask.img…) et d’analyse des résultats (con_0001.img, con_0001.hdr, spmT_0001.img,

    spmT_0001.hdr …) et ne laisser que le fichier .mat. Une estimation devra ensuite être réalisée à

    nouveau. Pour changer le seuil statistiques ou pour tester un nouveau contraste, il faudra

    systématiquement repasser par l’interface SPM 8 et relancer la fonction results. Une solution plus

    pratique est d’utiliser le logiciel XJVIEW qui permet de changer les seuils à la volée (voir annexe pour

    détails).

  • 39

    Figure 27 : Il est possible de sélectionner le seuil statistique, la taille minimale de voxels…

    Afin de réaliser des analyses moins conservatrices, il est possible de se focaliser sur certaines régions d’intérêt

    (ROI). Le logiciel Pickatlas peut être employé à cette fin (voir annexe pour détails).

  • 40

    Figure 28 : Le résultat du contraste sur les « glass view » et la matrice design. Le bouton « whole brain » dans

    l’interface SPM permet d’afficher les résultats détaillés par clusters (seuil, coordonnées MNI etc.).

    Il est conseillé de réaliser une analyse en test spécifiant p = 1. Cela permet d’observer si les voxels

    « remplissent » bien la totalité du glass view. Des « vides » ou voxels manquants se retrouveraient inévitablement

    au niveau de l’analyse de groupe. Il est souvent plus prudent d’exclure un tel participant (mouvement, artefacts…).

    Résultants des résultats (Results)

    • Fichiers :

    o con_0001.img, con_0001.hdr… : Les fichiers contenant les résultats pondérés des

    contrastes réalisés sur les fichiers beta voxel par voxel.

  • 41

    5. Analyses de second niveau (2nd-level)

    Figure 29 : Localisation de la fonction d’analyse de second niveau.

  • 42

    DIRECTORY : le dossier dans lequel sera généré le fichier SPM.MAT avec le design expérimental de

    groupe.

    DESIGN : one sample t-test, le type d’analyses statistiques que l’on souhaite réaliser. Dans notre

    étude, « one sample t-test » a été utilisé pour faire des simples contrastes entre deux conditions (ex :

    Financial > Neutral). Two-sample t-test permet de réaliser des analyses plus complexes en comparant

    deux contrastes entre eux. On peut également sélectionner des analyses de type paired t-test, multiple

    regression, one way ANOVA en cas de mesure répétées. Le design factoriel permet de tester les main

    effect et les interactions très simplement. Il faut rentrer l’ensemble des variables et leurs niveaux et

    sélectionner les scans via l’item cell.

    SCANS : con_0001.img, con, con_0002.img, con… Pour chaque sujet, on sélectionne les volumes

    contrastes résultants de l’analyse de 1er niveau. Il y’a autant de fichiers que de sujets. Bien veiller à

    sélectionner ces volumes dans le même ordre (le numéro con_0001 correspond au premier contraste

    réalisé en 1er

    niveau etc.) pour chaque analyse.

    COVARIATES : par défaut, laisser vide. Item très utile. Permet d’examiner s’il existe des corrélations

    entre des données supplémentaires (ex : temps de réaction, pourcentage de bonne réponses…) et des

    activations cérébrales. Il suffit de rentrer un vecteur de nombre dans le même ordre que les volumes des

    participants (bien veiller à toujours selectionner les fichiers con_ dans le même ordre, sujet 1 puis sujet 2

    etc.).

    MASKING

    THRESHOLD MASKING : none, par default.

    IMPLICIT MASK : yes, par default. Permet de masquer les voxels NaN ou 0.

    EXPLICIT MASK : laisser vide, par défaut. Permet de selectionner un fichier contenant explicitement

    des voxels à masquer.

    GLOBAL CALCULATION : omit, par défaut

    GLOBAL NORMALISATION

    OVERALL GRAND MEAN SCALING : no, par défaut.

    NORMALISATION : none, par défaut.

  • 43

    Figure 30 : On sélectionne les images de contraste dans l’ordre de numérotation des sujets et en conservant le bon

    numéro de contraste pour chaque sujet (pour chaque analyse de 2nd

    niveau, les contrastes devraient avoir tous le

    même index).

  • 44

    Figure 31 : Les items de l’analyse de second niveau complétés

    • Affichage :

    o Design expérimental en colonnes.

    • Fichiers : o SPM.MAT : Ecriture du design expérimental. Ce fichier devra être estimé comme pour

    l’étude individuelle. SPM 8 le proposera automatiquement.

  • 45

    Figure 32 : Contraste simple pour observer les régions plus activées durant une condition donnée.

  • 46

    Lexique

    TR : Dans SPM, le temps d’acquisition d’un volume complet. Attention, dans les header des fichiers ANALYZE ce

    terme se réfère au temps mis pour acquérir une coupe et non un volume.

    Slice (ou time-bin) : coupe au sein d’un volume

    Volume (ou scan) : un volume complet.

  • 47

    Quelques logiciels utiles

    Mricro : logiciel indispensable permettant d’ouvrir des images et vérifier leur résolution format etc. Il permet

    également de constituer des volumes 4D, convertir des fichiers etc.

    Pickatlas : une toolbox très utile pour réaliser des analyses ROI. Il permet également d’identifier l’aire de Broadman

    associée à des coordonnées MNI ou Talairach. Pour l’installer, il suffit de copier le répertoire wfu_pickatlas dans le

    répertoire toolbox de SPM8. Son lancement se fait via le menu déroulant Toolbox dans l’interface de SPM, ou il

    sera disponible après la création du répertoire.

    Figure 33 : Lancement de Pickatlas via le menu déroulant Toolbox de SPM.

  • 48

    Une fois lancé, le contraste manager de SPM proposera de réaliser des analyses par régions d’intérêt Deux

    possibilités : ou on lance l’interface de Pickatlas pour spécifier les régions d’intérêt, ou on a au préalable stocké

    sous forme de fichier ces régions d’intérêt et il ne reste plus qu’a sélectionner ce fichier.

    Figure 34 : Une fois Pickatlas lancé, SPM invite à spécifier une ROI via l’interface ou un fichier déjà sauvegardé.

    Figure 35 : L’interface de Pickatlas. Le logiciel permet également de convertir les coordonnées MNI (données par

    SPM) au format Talairach (TAL).

  • 49

    Il est possible de spécifier des aires de Broadman, des labels, des lobes etc. Une fois les ROI identifiées, le

    bouton done permet de retourner sous SPM pour finaliser le contraste. Autrement, il est possible de faire save

    mask pour pouvoir ouvrir ultérieurement le fichier ainsi crée avec les ROI.

    Talairach client : Outil indispensable permettant de vérifier les régions corticales associées à des données

    Talairach. Si l’on ne dispose pas des données Talairach, Pickatlas permet de faire la conversion MNI vers Talairach.

    Ghost Viewer : Outil très pratique permettant d’afficher les figures .Ps issus des traitements de premier niveau.

    MRI Convert : outil permettant de convertir à la volée différent formats de fichiers (DICOM, ANALYSE 7.5, ANALYSE

    SPM 99, NIFTI…). Il est même possible de construire des fichiers 4D (un seul fichier contenant plusieurs volumes

    3D). Il est également possible de faire apparaitre certains détails dans le nom des fichiers (nom du patient, de

    l’étude…). Si des fichiers NIFTI 4D ont été créés, il ne faudra pas oublier de spécifier le nombre de volumes contenu

    dans ces fichiers au moment de leur ouverture dans SPM8, sinon ce dernier ne laisse apparatire que le premier

    volume puisque le paramètre par défaut est 1. Pour ce faire on entre le nombre de volumes comme indiqué ci-

    dessous, selon la syntaxe habituelle matlab. 1 :281 signifie vecteur d’une taille allant de 1 à 281, le nombre de

    volume contenus dans nos fichiers 4D de cet exemple.

    Figure 36 : Spécifier la longueur du vecteur dans SPM en cas de volume 4D.

  • 50

    Figure 37 : L’interface de MRIConvert.

    xjView : Outil indispensable permettant d’afficher très simplement les contrastes. Il est également possible de

    modifier le seuil de significativité via un curseur ou en modifiant ce dernier dans un champ texte.

  • 51

    Figure 38 : L’interface de xjView. L’ouverture des contrastes se fait via le menu File/open image. On sélectionne

    ensuite une image spmT_xxxx.img.