TH3659
TH3659
TH3659
MÉMOIRE
Présenté pour l'obtention du diplôme de Magister
Spécialité : Informatique
Option : Ingénierie des Données et des Connaissances
Titre :
En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil
majeur en oncologie pour le diagnostic, le suivi et l’évaluation thérapeutique. Contrairement aux
modalités habituelles (IRM ou Scanner), la TEP fournit des informations sur la fonction cellulaire du
corps plutôt que sur son anatomie ; ce qui permet ainsi de diagnostiquer des lésions à un stade très
avancé, voire avant même qu’elles n’aient de manifestation morphologique.
Cependant, du fait de la nature fonctionnelle des images TEP, la localisation des structures
anatomiques dans une telle image reste une tâche très difficile ; en effet, les images TEP ne
fournissent qu’une très faible information anatomique. La segmentation d’images TEP requiert donc
l’intervention d’un expert médical qui pourra s’affranchir de ces artefacts grâce à ses connaissances
à priori du corps à étudier ; dans ce cas l’expert procède à une segmentation manuelle d’un volume
coupe par coupe ce qui s’avère être très fastidieux et couteux en matière de temps.
Nous présentons dans ce mémoire, une approche de segmentation d’image TEP cérébrales combinant
à la fois, l’information fournie par le volume TEP à segmenter et des connaissances apriori sur le
volume fournis sous forme d’Atlas Anatomique. Le principe de notre approche consiste à appliquer
un recalage entre le volume TEP en entrée et l’atlas anatomique, déterminant ainsi, la transformation
géométrique conduisant au meilleur alignement TEP/Atlas.
Figure II.8 : Transformation d'une image TEP niveaux de gris en couleur ………………………………………
37
Figure II.18 : Application du filtre Gaussien sur une image bruitée …………………………………………………
47
Figure II.19 : Application du filtre Median sur une image bruitée …………………………………………………
50
Figure III.1 : Coupe IRM mettant en évidence les différents tissus du cerveau ………………………………………
55
Figure III.6 : Ligne de partage des eaux entre deux bassins ………………………………………………………
66
Figure III.10 : Seuillage par hysteresis sur une image synthétique ……………………………………………………
71
Figure III.12 : Erosion d'une image binaire par un élément structure de type croix …………………………………
74
Figure III.13 : Dilatation d'une image binaire par un élément structure de type croix ………………………………
74
Figure III.15 : Evolution d'un contour actif sur une IRM …………………………………………………………
76
Figure IV.7 : Projection du point s dans l'image à recaler selon une transformation h ………………………………
97
Figure IV.8 : Interpolation d'ordre 0 et d'ordre 1 …………………………………………………………………
97
Introduction
I. Introduction…………………………………………………………………………………………………………
14
III. Conclusion…………………………………………………………………………………………………………
27
I. Introduction…………………………………………………………………………………………………………
29
VI. Conclusion…………………………………………………………………………………………………………
51
I. Introduction…………………………………………………………………………………………………………
54
IV. Conclusion…………………………………………………………………………………………………………
79
CHAPITRE IV Le recalage d'images
I. Introduction…………………………………………………………………………………………………………
81
II. Problématique……………………………………………………………………………………………………… 82
II.1. Formalisation du Problème……………………………………………………………………………… 82
II.2. Application……………………………………………………………………………………………… 84
II.2.1. Un seul sujet, Une seule modalité………………………………………………………………84
II.2.2. Un seul sujet , Plusieurs modalités………………………………………………………………
84
II.2.3. Plusieurs sujets, Une ou plusieurs Modalités……………………………………………………
86
V. Interpolation………………………………………………………………………………………………………
96
VIII. Conclusion………………………………………………………………………………………………………
107
Introduction……………………………………………………………………………………………………………
109
V. Discussion …………………………………………………………………………………………………………
132
Conclusion Générale…………………………………………………………………………………………………
133
Bibliographie…………………………………………………………………………………………………………
134
Introduction :
En imagerie médicale, chaque modalité présente un aspect différent de l’anatomie étudié : En
radiologie par exemple, les rayons X mettent en évidence les matières les plus denses telles
que les os. L’imagerie par résonance magnétique permet la visualisation des différents tissus
anatomique, en IRM cérébrale il s’agit alors de la matière blanche (mb), matière grise (mg) et
le liquide céphalorachidien (lcr). En médecine nucléaire, la tomographie par émission de
positons1 (TEP) est une méthode qui permet de mesurer l'activité métabolique d'un organe
grâce aux émissions produites par les positons issus de la désintégration d'un produit
radioactif injecté au préalable. La TEP repose sur le principe général de la scintigraphie qui
consiste à injecter un traceur qui est généralement sous forme de glucose. Ce traceur est
marqué par un atome radioactif qui émet des positons dont l'annihilation produit elle-même
des photons . La détection de la trajectoire de ces photons par le collimateur de la caméra TEP
permet de localiser le lieu de leur émission et donc la concentration du traceur en chaque
point de l'organe. Cette information quantitative est représentée sous la forme d'une image
faisant apparaître les zones de forte concentration du traceur. Ainsi la TEP permet de
visualiser les activités du métabolisme des cellules : on parle d'imagerie fonctionnelle par
opposition aux techniques d'imagerie dite structurelle comme celles basées sur les rayons X
(radiologie ou scanner) qui réalisent des images de l'anatomie. Par conséquent, la tomographie
par émission de positons est un outil diagnostique qui permet de déceler certaines pathologies
qui se traduisent par une altération de la physiologie normale comme les cancers ; en effet,
Comme les cellules tumorales sont plus actives que les cellules normales, elles consomment
davantage de glucose. La TEP permet ainsi d’obtenir des images précises de la répartition du
glucose radioactif dans l’organisme et donc de localiser des cellules cancéreuses. De
nombreuses méthodes de segmentation automatique d’images TEP ont été proposées dans la
littérature, pour la plupart d’entres elles, les efforts de recherches se sont concentrés
uniquement sur les données brutes fournies par l’image TEP. Cependant à cause du manque
de détail anatomique dans l’image TEP, ces algorithmes aboutissent généralement à une
segmentation fonctionnelle du volume TEP, et plus particulièrement à la segmentation des
hyperfixations2.
L’objectif de notre projet est la segmentation de volume TEP cérébrales, en intégrant les
connaissances apriori de l’anatomie cérébrale. Le principe de notre approche consiste à
1
En physique des particules, le positron ou positon, encore appelé antiélectron est l'antiparticule associée à l'électron. Il
possède une charge électrique de +1 charge élémentaire (contre -1 pour l'électron)
2
Zone de forte concentration du traceur radioactif
appliquer une transformation géométrique sur un atlas anatomique (segmenté et étiqueté) de
manière à ce qu’il soit correctement aligné au volume TEP à segmenter. Nous obtenons ainsi
une segmentation du volume TEP en structures anatomiques. La transformation géométrique
est déterminée par un procédé de recalage.
CHAPITRE I L’imagerie Médicale
I. Introduction :
L’imagerie médicale regroupe l’ensemble des techniques permettant de visualiser une partie
du corps humain ou d’un organe sans avoir à opérer le patient ; cela, en créant une image
visuelle compréhensible d’une information à caractère médical dans le but d’établir un
diagnostic et de faire un suivi approprié du traitement.
De la trépanation (a) à la robotique chirurgicale (b), la pratique médicale a connu une
véritable révolution (Figure I.1). De nos jours, grâce aux nouvelles techniques d’imagerie, les
procédés de traitement se sont modernisés, le diagnostic est devenu plus précis et la qualité
des soins est désormais meilleure. Loin des pratiques traditionnelles, où «voir» passait par
«ouvrir», aujourd’hui, les radiologues, à l’aide des techniques tomographiques, peuvent
diagnostiquer et traiter de façon quasiment non-invasive. Le recours à la chirurgie invasive est
devenu la solution de dernier recours.
Selon la nature des recherches, on distingue celles qui fournissent des propriétés structurelles
(morphologiques) de la zone étudiée (IRM, Rayons X...), de celles qui restituent des aspects
fonctionnels (TEP, IRMf) :
14
CHAPITRE I L’imagerie Médicale
Plusieurs modalités sont parfois utilisées pour effectuer un seul diagnostic (Figure I.2). Pour
certaines anomalies, le radiologue doit, à la fois, étudier l’aspect structurel et fonctionnel
d’une zone d’intérêt. Or, ces modalités sont, en général, utilisées avec un décalage dans le
temps. Les informations recueillies doivent être alors fusionnées dans un même repère pour
permettre d’effectuer les différentes analyses et comparaisons, nécessaires à l’établissent d’un
diagnostic précis et efficace.
15
CHAPITRE I L’imagerie Médicale
Dans ce chapitre nous survolerons les différentes techniques d’acquisition d’images médicales
telles les techniques Radiographiques, Ultrasonores et par Résonance Magnétique (IRM).
Les rayons X ont été découverts par hasard en 1895 par Wilhelm Röntgen [21] qui étudiait
les rayons cathodiques dans un tube à décharge gazeuse sous haute tension. Bien que ce tube
fût enchâssé dans un boîtier de carton noir, Röntgen nota qu'un écran de Platinocyanure de
Baryum, placé par hasard à proximité, émettait une lumière fluorescente lorsque le tube
fonctionnait. Après avoir effectué d'autres expériences, il conclut que cette fluorescence était
causée par un rayonnement invisible d'une nature plus pénétrante que le rayonnement
ultraviolet.
Comme il ne trouva pas de dénomination adéquate pour ces rayons, Röntgen les baptisa
« Rayons X ». Notons au passage que ce rayonnement est encore souvent appelé en
Allemagne Röntgenstrahlung. Peu après la découverte des rayons X, leur capacité à traverser
le corps humain fut mise en évidence et donnèrent naissance aux premières images médicales.
Le premier cliché est celui de la main d'Anna Bertha Röntgen (22 décembre 1895); il s'agit de
la première radiographie, la radiologie est née.(figure I.3)
16
CHAPITRE I L’imagerie Médicale
Figure I.3 : Une des premières radiographies prise par Wilhelm Röntgen.
Le terme « Radiographie » peut désigner l'ensemble des techniques permettant de réaliser les
clichés des structures internes d'un patient ou d'un composant mécanique et ce, à l'aide de
rayons X. L'application la plus courante est la radiographie médicale dans laquelle les clichés
traduisent l'opacité plus ou moins marquée des tissus ou organes par une teinte plus ou moins
claire.(Figure I.4)
Sachant que le corps est composé de tissus dits "mous" c’est à dire peu opaques aux rayons X
(comme la peau, la graisse, les muscles) et de tissus plus opaques (les os essentiellement), le
procédé de radiographie consiste à faire traverser un corps étudié par un faisceau de rayons
X ; Ceux-ci viennent frapper et imprimer une matrice de détecteurs photosensibles. L'image
est créée par la différence d'opacité des tissus due aux rayons X.
Les procédés d’acquisitions radiographiques mesurent la quantité de rayons X parvenant sur
les détecteurs et donc, pour les tissus traversés, leur coefficient d’absorption de rayons X. La
radiographie est encore le plus souvent réalisée sur film, celui-ci étant disposé dans une
cassette protectrice derrière ou sous le corps exposé.
17
CHAPITRE I L’imagerie Médicale
Néanmoins, l'exclusivité de la radiographie sur film est généralement réservée aux « Tables
d'Os » qui sont dédiées uniquement à l'examen osseux.
• L'image restituée étant une projection en deux dimensions, il faut savoir l’interpréter
(sauf s’il y a utilisation d’une reconstruction en 3D).
• L'impact nocif sur l'organisme reste un problème majeur, qu'il s'agisse de la quantité
d'iode injectée le cas échéant ou qu'il s'agisse de l'exposition aux rayons X en cas de
procédure lourde ou répétée (possibilité d'alopécie ou de brûlure locale) bien que les
personnels soignants à proximité du patient soient les premiers concernés par ce dernier
risque.
18
CHAPITRE I L’imagerie Médicale
Le scanner, également appelé tomographe axial assisté par ordinateur (TAO), est un dispositif
de radiographie associant rayons X et traitement informatique permettant d’obtenir, par des
mesures de densité, une image des plans de coupe d’un objet, en particulier du corps humain.
Inventé par le Britannique Godfrey Hounsfield dans les années 1970, le scanographe —
appelé également scanner en raison de l’analyse par balayage qu’il effectue (de l’anglais
scanning) — reconstitue l’image du corps en mesurant la densité des rayonnements X à
travers le corps humain sous différents angles.
Le dispositif est constitué d’une source de rayons X, ou générateur, d’un couple émetteur-
détecteur et d’un appareil de balayage, le tout étant relié à un système de traitement
informatique et à une console permettant de visualiser et, éventuellement, d’archiver les
images. Le détecteur est composé d’un scintillateur et d’un photomultiplicateur ; dans les
premiers équipements, on employait des cristaux d’iodure de sodium, remplacés aujourd’hui
par un gaz rare, comme le xénon, placé dans une chambre d’ionisation.
Il existe différents systèmes de balayage. Dans l’un d’eux, le couple émetteur-détecteur
effectue un mouvement de translation, puis une rotation d’un angle a, ceci jusqu’à na = 180°
(n étant le nombre de rotations). Les densités ensuite déterminées sont converties en « unités
Hounsfield ».
Actuellement, la plupart des grands hôpitaux sont équipés de scanners qui révèlent les
tumeurs cancéreuses du foie, du cerveau, du poumon, des reins et qui décèlent les hernies
discales. La scanographie permet de distinguer par exemple les kystes, les masses de sang, de
graisse, de calcium. Elle a totalement révolutionné la radiologie, en particulier en neurologie.
En outre, l’examen est indolore et presque sans danger pour le patient.
L'angiographie est une technique d'imagerie médicale dédiée à l'étude des vaisseaux sanguins
qui ne sont pas visibles sur la radiographie standard. On parle d'artériographie pour
l'exploration des artères et de phlébographie pour celle des veines. L'angiographie est un
examen basé sur l'injection d'un produit de contraste lors d'une imagerie par rayons X. Sa
signification littérale est «imagerie des vaisseaux» (Figure I.5)
19
CHAPITRE I L’imagerie Médicale
Cette technique utilise les rayons X et un produit de contraste « radio-opaque ». Celui-ci peut
être constitué soit d’Iode (élimination par les reins) soit de dioxyde de carbone (CO2). Son
principe consiste à rendre visibles (ou opaques) les vaisseaux artériels ou veineux. Un cathéter
est introduit dans le vaisseau pour injecter le produit de contraste qui se mélange au sang : le
système vasculaire devient visible sur les clichés radiologiques grâce aux propriétés radio-
opaques de l'iode. L'artériographie peut concerner n'importe quelle artère du corps. Pour une
exploration cardiaque, on parlera de coronarographie ; pour celle carotidienne et céphalée, on
parlera de neuro-angiographie.
L’échographie est une technique médicale consistant à visualiser certains organes à l'aide de
sons à haute fréquence (les Ultrasons). Les sons réfléchis par les organes sont analysés par
ordinateur de façon à produire une image sur un écran ou une photographie. Les sons sont émis
par un cristal à oscillation rapide dont la fréquence se situe entre 18 et 20 kHz. Ces vibrations
du cristal durent un millionième de seconde et se produisent 500 fois par seconde. On utilise
une sonde, en contact étroit avec la peau, pour émettre les sons et recevoir les échos. La peau
est également enduite de gel pour améliorer l'acoustique. L'air, les os et les tissus calcifiés
20
CHAPITRE I L’imagerie Médicale
absorbent la quasi-totalité des faisceaux d'ultrasons. Cet examen n'est donc pas utile pour
diagnostiquer les atteintes osseuses ou pulmonaires. En revanche, les fluides sont de bons
conducteurs d'ultrasons, si bien que cette technique est utilisée pour examiner les kystes et des
organes tels que la vessie, le système biliaire ou visualiser le fœtus dans le sac amniotique.
L'échographie peut également servir aux examens du réseau artériel, du cœur, du pancréas, de
la cavité péritonéale, de l'appareil urinaire, des ovaires, du système veineux, du cerveau et de
la moelle épinière. L'examen du fœtus pendant la grossesse est pourtant son utilisation la plus
courante.
L’imagerie par résonance magnétique (IRM), est une technique d'imagerie médicale
utilisée pour faire un diagnostic et se basant sur les principes de la résonance magnétique
nucléaire. Les images données par cette technique sont utilisées depuis une vingtaine
d'années, mais c'est entre 1930 et 1940 que furent conduites les recherches fondamentales
sur les interactions entre le noyau de l'atome et les champs magnétiques. En 1950, les
principes physiques fondamentaux de la résonance magnétique étaient déjà bien compris.
Pourtant, il restait encore trois conditions à remplir : disposer d'un ordinateur
suffisamment rapide et puissant, réaliser un aimant stable à taille humaine associé à des
appareils radio et enfin imaginer une utilisation médicale de ces techniques. Lauterbur,
Damadian et Mansfield ont démontré la faisabilité de cette idée en utilisant les principes
physiques de la résonance magnétique nucléaire. Les premières images réalisées grâce à
21
CHAPITRE I L’imagerie Médicale
cette technique furent publiées au début des années 1970. Les applications médicales se
sont considérablement développées dans les laboratoires et les centres médicaux du
monde entier entre 1983 et 1993.
Ces techniques d'imagerie médicale utilisant la résonance magnétique ont une multitude
d'applications. Les experts s'accordent à dire que l'IRM est la méthode de diagnostic la
plus puissante et la plus sensible disponible actuellement. Pour donner une idée de son
importance, disons simplement qu'elle permet d'obtenir des images de n'importe quel
organe, dans n'importe quelle coupe, et ce dans un délai relativement court. Des
techniques développées ultérieurement ont permis, par exemple, de visualiser l'anatomie
cardiaque dans tous ses détails. L'IRM a également pu être étendue à l'observation des
artères et des veines grâce à une technique appelée l'Angiographie à Résonance
Magnétique.
Le principe de l'IRM peut s'appliquer à l'organisme parce ce que ce dernier comporte une
multitude de petits « aimants atomiques », le plus courant et le plus réactif étant le proton
du noyau de l'atome d'hydrogène. Le principe de l'IRM met à profit la distribution
aléatoire des protons qui possèdent des propriétés magnétiques. Le processus se fait en
trois étapes. Dans un premier temps, l'IRM place le corps dans un champ magnétique très
puissant (30 000 fois plus puissant que celui de la Terre) qui oriente tous les protons dans
la même direction. Ensuite, les protons sont excités par des ondes radio, qui modifient
leur orientation. Enfin, la stimulation est brutalement interrompue, et l'appareil recueille
une onde dite de « résonance » par des antennes spécialement conçues. L'analyse
informatique du signal transmis permet d'établir les images des organes internes en
utilisant des méthodes similaires à celles qui ont été mises au point pour la radiographie
aux rayons X ou les scanners.
L'IRM est choisie pour diagnostiquer des atteintes du cerveau et du système nerveux
central. Les examens par IRM ont une résolution anatomique comparable à celle des
22
CHAPITRE I L’imagerie Médicale
scanners, mais d’un meilleur contraste. Ils fournissent le même type d'informations que la
tomographie par émission de positons, mais avec plus de détails anatomiques. Par
ailleurs, l'IRM est très supérieure aux images à rayons X, car elle a la capacité de
distinguer les différences d'intensités entre les tissus mous normaux et pathologiques.
L'IRM est sans risque. Elle est toutefois contre-indiquée aux patients porteurs de
prothèses. L'IRM est un examen très coûteux, mais qui constitue un progrès fantastique.
Elle fournit des éléments de diagnostic plus variés et plus précis.
23
CHAPITRE I L’imagerie Médicale
24
CHAPITRE I L’imagerie Médicale
émet des positons dont l'annihilation produit elle-même des photons [39]. La détection de la
trajectoire de ces photons par le collimateur de la caméra TEP permet de localiser le lieu de
leur émission et donc la concentration du traceur en chaque point de l'organe. Cette
information quantitative est représentée sous la forme d'une image faisant apparaître les zones
de forte concentration du traceur. Ainsi la TEP permet de visualiser les activités du
métabolisme des cellules : on parle d'imagerie fonctionnelle par opposition aux techniques
d'imagerie dite structurelle comme celles basées sur les rayons X (radiologie ou scanner) qui
réalisent des images de l'anatomie. Par conséquent, la tomographie par émission de positons
est un outil diagnostique qui permet de déceler certaines pathologies qui se traduisent par une
altération de la physiologie normale comme les cancers ; en effet, Comme les cellules
tumorales sont plus actives que les cellules normales, elles consomment davantage de
glucose. La TEP permet ainsi d’obtenir des images précises de la répartition du glucose
radioactif dans l’organisme et donc de localiser des cellules cancéreuses [8]
La TEP est aussi utilisée en recherche biomédicale, par exemple en imagerie cérébrale où elle
permet de révéler les régions actives du cerveau lors de différentes activités cognitives. Dans
la figure I.9 nous remarquons que l’écoute subjective ou analytique d’une même pièce de
musique par un même sujet active respectivement l’hémisphère droit ou l’hémisphère gauche.
Figure I.9 Scan-TEP lors d’une écoute subjective (a) et analytique (b) d’une même pièce de musique par le
même sujet
26
CHAPITRE I L’imagerie Médicale
III. Conclusion :
L’imagerie médicale est certainement l’un des domaines de la médecine qui a le plus
progressé ces vingt dernières années, puisqu’elle a vu l’irruption de la machine. Le médecin
demeure lecteur et arbitre, mais c’est l’informatique qui révèle l’anatomie. Ces récentes
découvertes permettant non seulement un meilleur diagnostic mais offrent aussi de nouveaux
espoirs de traitement pour de nombreuses maladies.
Le besoin de concevoir des méthodes automatiques ou semi-automatiques pour traiter plus
spécifiquement les images médicales s’est donc fait ressentir. Une nouvelle communauté de
recherche spécialisée en traitement des images médicales est née. Ces chercheurs issu
principalement de la communauté «traitement d’images», tentent de répondre aux nombreuses
questions des radiologues. L’ensemble des solutions apportées font appel à des paradigmes
souvent présents dans d’autres domaines. Parmi ces paradigmes nous citons la restauration
d’images, la morphométrie, la segmentation, le recalage, la classification, la réalité
augmentée, la simulation et la robotique.
27
CHAPITRE II L’image Numérique
I. Introduction :
Le traitement d’image est une discipline relativement jeune (années 60) en pleine expansion,
donnant ainsi lieu chaque année à une multitude de travaux académiques, technologiques et
industriels.
Par traitement d'images, on désigne l'ensemble des opérations appliquées sur les images
numériques transformant une image en une autre, ou en une primitive formelle.
Ce chapitre a pour objectif l’introduction au domaine du traitement d’image. Nous aborderons
d’abord le vocabulaire et quelques notions fondamentales relatives à cette discipline telles que
la résolution spatiale et la quantification. Nous verrons par la suite les différentes techniques
de prétraitements en nous plaçant dans un contexte 2D puis 3D. Cependant, nous nous
focaliserons sur les images 2D lorsque la généralisation en 3D est triviale.
II.1 Définition :
Une image numérique est une fonction I à support discret et à valeurs discrètes. Le support
peut être bidimensionnel ou tridimensionnel. La fonction I associe à chaque élément du
support une mesure qui, à son tour peut être soit :
• Scalaire : lorsqu’il s’agit d’une intensité, comme par exemple le niveau de gris.
soit
• Vectorielle : la mesure est répartie en plusieurs canaux distincts. Dans le cas
d’image couleur RVB par exemple, chaque composante du vecteur représente une
des trois couleurs primaires (Rouge, Vert, Bleu).
Nous discutons de manière plus détaillée de l’espace de couleur dans la section II.4.
La nature d’une image dépend du phénomène physique à mesurer. Le tableau II.1 présente les
types les plus courants, les grandeurs physiques associées et les capteurs utilisés.
29
CHAPITRE II L’image Numérique
Une image numérique est représentée par un tableau I de h lignes et w colonnes où chaque
cellule désigne un pixel ; ce nom provient de la locution anglaise Picture Element qui signifie
« élément d’image ». Ainsi, un pixel est désigné par ses coordonnées entières dans l’image, la
valeur d’un pixel représente son intensité lumineuse, son niveau de gris ou sa couleur.
Par convention le pixel origine est généralement en haut à gauche. La figure II.1 illustre une
représentation d’une image numérique en niveau de gris.
En imagerie médicale, les images sont généralement acquises sous forme de coupes [31], ces
dernières sont empilées les unes sur les autres, donnant ainsi une représentation volumique
30
CHAPITRE II L’image Numérique
(image 3D). Dans ce cas, le support est tridimensionnel, chaque élément du volume désigne
un voxel (Volumetric Picture Element) ; ce dernier est repéré par ses coordonnés entières
tridimensionnelles. Un volume v est représenté sous forme de cube (tableau tridimensionnel)
où la troisième dimension désigne la profondeur noté d. La figure II.2 illustre une
représentation d’un volume en niveaux de gris. La figure II.3 illustre un rendu volumique (c)
d’une IRM cérébrale mettant en évidence les différentes coupes ; à savoir la coupe sagittale
(a), coronale (b) et transversale (d).
Les pixels forment des ensembles connexes de points du plan euclidien, de telle sorte que
deux pixels voisins ne peuvent s'intersecter que sur leur bord, et que l'ensemble des pixels
recouvre le plan. Une telle décomposition du plan s'appelle un pavage. La figure II.4 illustre
trois types de pavages, dont les pavés sont des polygones réguliers : triangulaire (a), carré (b),
et hexagonal (c).
31
CHAPITRE II L’image Numérique
32
CHAPITRE II L’image Numérique
En plaçant un point au centre de chaque pavé, puis en joignant les points dont les pavés
correspondants se touchent par un côté, nous obtenons le maillage correspondant au pavage,
Chaque nœud du maillage est un point discret correspondant au pixel. La figure II.5 illustre le
maillage établi à partir des différents types de pavages vue précédemment.
Dans la figure II.5 on peut constater que le pavage triangulaire donne un maillage hexagonal
(a) et vice versa(c), tandis le pavage carré donne un maillage carré (b). Notons cependant que
le pavage et le maillage carrés sont les plus utilisés, car ils correspondent à nos habitudes
cartésiennes. De plus, les points lumineux d'un écran sont toujours disposés suivant un
maillage carré.
Dans un maillage carré, chaque pixel a deux types de voisins : les voisins axiaux et les voisins
diagonaux. Nous pouvons définir ainsi les relations 4-adjacents et 8-adjacents :
| | | | (2.1)
| | ,| | (2.2)
33
CHAPITRE II L’image Numérique
La relation de proximité entre deux voisins axiaux est plus forte que celle entre deux voisins
diagonaux. La figure II.6 illustre les voisins d’un pixel (bleu) selon les deux type de relation.
Figure II.6 : Voisinage d’un pixel selon la relation 4-adjacents (a) et 8-adjacents (b).
En 3D, le seul polyèdre régulier permettant un pavage est le cube. Il est donc d'usage, pour les
images tridimensionnelles, d'utiliser un pavage cubique auquel correspond un maillage
cubique. Dans ce cas, chaque voxel dispose de 26 voisins se répartissant comme suit :
• 6 voisins axiaux.
• 12 voisins diagonaux.
• 8 voisins diamétraux.
Figure II.7 : Voisins axiaux (a), diagonaux (b) et diamétraux (c) d’un voxel.
34
CHAPITRE II L’image Numérique
, , , ,
En 3D nous étendons la relation d’adjacence de la manière suivante :
Deux voxels et sont dits :
| | | | | | (2.3)
| | | | | |
, ,
(2.4)
| | ,| |, | | (2.5)
C'est le codage le plus simple d'un point de vue informatique, car il s'agit des valeurs à donner
aux pixels de l'écran, ce dernier fonctionnant sur le même principe, avec 3 faisceaux rouge-
vert-bleu. L’intensité de chaque composante varie entre 0 et 255 soit 256 nuances distincte.
35
CHAPITRE II L’image Numérique
Ce nombre n'a pas été fixé au hasard. En effet, d’une part, en informatique il est possible de
coder 256 valeurs distinctes à partir d’un seul octet, d’autre part, l'œil humain le plus exercé
est pleinement satisfait avec 256 nuances d'une même couleur. Notons aussi que 256 nuances
de chaque couleur primaire permet de créer 16,7 millions de couleurs (256 x 256 x 256) Alors
qu'en moyenne, l’œil humain n’est pas capable de distinguer plus de 350000 couleurs, on
conçoit donc facilement que les 256 nuances de chaque couleur primaire suffisent largement.
Le modèle RVB est un système à trois dimensions qui peut être représenté sous la forme d'un
cube dont chaque axe correspond à une couleur primaire. Le mélange deux par deux des
couleurs primaires donne lieu aux couleurs secondaires (Cyan, Magenta, Jaune).
Le niveau de gris représente l'intensité lumineuse d'un pixel, lorsque ses composantes de
couleurs sont identiques en intensité lumineuse. Comme nous l’avons vu précédemment, dans
les images couleurs chaque pixel est représenté par trois composantes (Rouge, Vert, Bleu pour
le modèle RVB), un pixel est dit « gris » lorsque ses trois composantes de couleurs sont
identiques. Une méthode simple pour convertir une image couleur en niveau de gris consiste à
36
CHAPITRE II L’image Numérique
calculer la moyenne des trois composantes RVB et d’utiliser cette valeur moyenne pour
chacune des trois composantes :
La C.I.E1 propose, de caractériser le niveau de gris d’un pixel selon la manière dont l’œil
humain perçoit les trois composantes (rouge, vert et bleu) de la lumière naturelle par la
formule suivante :
Parfois il est visuellement plus parlant de représenter une image niveaux de gris en une image
couleurs, en remplaçant chaque niveau de gris par une couleur au moyen d'une
correspondance entre niveaux de gris et couleurs. Il s’agit ici de fausses couleurs, ou de
pseudocouleurs. La figure II.8 illustre une image TEP niveaux de gris (a) transformée en
pseudocouleurs (b) à partir d’une fonction de correspondance entre niveau de gris et RVB,
celle-ci est illustrée dans la figure II.9.
Figure II.8 : Transformation d’une image TEP niveau de gris (a) en couleur (b)
1
Commission Internationale de l'Éclairage
37
CHAPITRE II L’image Numérique
38
CHAPITRE II L’image Numérique
Une image numérique ne constitue qu’une version approchée de l’image réelle formée par
l’image de projection de la scène 3D sur la portion de plan correspondant à la surface
photosensible du capteur. La qualité d’apporixmation dépend de la quantité d’information
portée par l’image numérique, en particulier de la résolution spatiale. La figure II.10
illustre différentes résolutions spatiales d’une même image TEP agrandies à la taille originale.
Il est intuitivement évident qu’une structure fine comportant de fortes variations spatiales
nécessite plus de pixels qu’une structure présentant moins de variations. Cependant en
pratique le nombre de pixels est limité et dépend du dispositif d’acquisition ; il est donc
souhaitable que les pixels utilisés donnent lieu à une représentation plus ou moins ‘moyenne’
de la région concernée.
La figure II.11 représente un signal 1D sinusoïdal discrétisé avec un pas d’échantillonnage ne
satisfaisant pas la condition du théorème d’échantillonnage de Nyquist-Shannon2.[37]
On remarque dans la figure II.11 que le signal discret résultant est de même allure sinusoïdale
que le signal continu mais avec une fréquence 9 fois plus faible. Ce phénomène est appelé
aliasing. En signaux bidimensionnels, c'est-à-dire les images, le phénomène d’aliasing a une
ampleur aussi importante, faisant apparaitre des structure ne correspondant pas à la réalité
2
La fréquence d'échantillonnage d'un signal doit être égale ou supérieure au double de la fréquence maximale
contenue dans ce signal, afin de convertir ce signal d'une forme continue à une forme discrète
39
CHAPITRE II L’image Numérique
La figure II.12 illustre une bande rouge (a) discrétisée à une résolution fine (b) puis grossière
(c). Dans (b) nous obtenons une structure plus ou moins conforme à l’image continue,
cependant dans (c) une structure différente apparait ne représentant pas la réalité de l’objet ;
en effet, la bande ne conserve plus sa propriété de continuité du fait de la faible résolution
spatiale.
40
CHAPITRE II L’image Numérique
La résolution tonale d’une image correspond au nombre de valeurs différentes que l’on peut
associer aux intensités des pixels dans cette image, elle est exprimée par le nombre de bits
utilisé pour coder les valeurs des pixels. Idéalement le nombre de valeurs différentes des
intensités dans une image devrait dépendre de l’amplitude des grandeurs observées dans la
scène, cependant en pratique ce nombre dépend de la sensibilité du capteur.
La figure II.13 illustre une image TEP en niveaux de gris à des résolutions tonales différentes.
Figure II.13: Image TEP 8 bits (a) – 4 bits (b) - 1 bit (c).
V. Prétraitement d’image :
3 Altération de certains pixels dans l’image, pouvant être causée par le processus d’acquisition, de transmission
ou de stockage.
41
CHAPITRE II L’image Numérique
nous notons par =>6? la nouvelle image issue de l’opération sur une image en entrée =.
Nous présentons ici quelques méthodes pour chacune de ces catégories. Dans ce qui suit,
Dans ce type d’opération, la nouvelle intensité de chaque pixel de l’image dépend uniquement
L’opération est représentée sous forme de courbe tonale, associant pour chaque valeur de =
de son ancienne valeur indépendamment des valeurs des autres pixels dans l’image.
Comme son nom l’indique, cette opération effectue un changement d’éclairage sur l’image, il
translation :. Cette valeur est additionnée à l’ensemble des pixels de l’image, ce qui a pour
peut s’agir d’un éclaircissement ou d’un assombrissement, selon le signe du facteur de
=>6? , = , : (2.8)
42
CHAPITRE II L’image Numérique
V.1.2. Inversion :
L’opération d’inversion consiste à inverser les valeurs des pixels de l’image par rapport à la
moyenne de valeur possible. Pour les images en niveau de gris l’opération s’exprime ainsi :
43
CHAPITRE II L’image Numérique
V.1.3. Seuillage :
L'opération dite de seuillage consiste à mettre à zéro tous les pixels ayant une valeur
inférieure à un certain seuil et, à la valeur maximale, l’ensemble des pixels ayant une valeur
supérieure au seuil. Ainsi le résultat du seuillage est une image binaire contenant des pixels
noirs et blancs, c'est la raison pour laquelle le terme de binarisation est parfois employé.
L’opération de seuillage pour une image en niveaux de gris s’exprime ainsi :
. A = , B C DEF
=>6? , @
/00 - >3>
(2.10)
Le seuillage permet de mettre en évidence des formes ou des objets dans une image. Toutefois
la difficulté réside dans le choix du meilleur seuil. La figure II.16 illustre la courbe tonale de
l’opération de seuillage.
Dans ce type d’opération, la nouvelle valeur de chaque pixel est calculée en tenant en compte
de l’intégralité des pixels dans l’image. Dans cette catégorie on trouve, par exemple, les
opérations sur les histogrammes ou les opérations qui nécessitent de passer dans l'espace de
44
CHAPITRE II L’image Numérique
La normalisation d’histogramme est une opération qui consiste à modifier les valeurs de
chaque pixel de manière à ce que l’image résultante exploite toute sa dynamique, améliorant
/00
=>6? , = , = G 2.11
>
= = >
45
CHAPITRE II L’image Numérique
= ,
=>6? , I I L M , MN G = M , MN 2.13
MNKP M KP
4
Le noyau est indexé par des valeurs négatives et positives autour du centre A(0,0)
46
CHAPITRE II L’image Numérique
/V /
L , ·6 2.15
P
/·S²
S√/ · U
/V /V ²
L , , ·6 2.16
P
/·S²
S√/ · U
Bien que ce filtre permette de réduire considérablement le bruit dans l’image, son application
provoque une dégradation de l’image, en particulier des contours. Ceci se manifeste par un
effet de flou (figure II.18)
Figure II.18 : Application du filtre Gaussien (b) sur une image bruitée (a).
47
CHAPITRE II L’image Numérique
coefficient de chaque point du noyau est inversement proportionnel à la distance entre le point
en question et le centre du noyau. Ceci afin de privilégier les points les plus proches du centre.
Les coefficients sont calculés selon la formule d’Asfar [55] :
L , , Y /. 7
|| || | |
En 2D :
// . // // //
L Z . \ ; LN Z . . . \
// . // // //
En 3D :
48
CHAPITRE II L’image Numérique
• LN
/' // /' // // /' // /'
Z . . . \ ;Z . . . \ ;Z . . . \
/' // /' QKP // // QKP /' // /' QKP
49
CHAPITRE II L’image Numérique
Figure II.19 : Application du filtre Médian (b) sur une image bruitée (a)
Le filtre de diffusion tente d’atténuer les différences d'intensité entre chaque pixel et ses
voisins. Le principe est de calculer pour chaque voisin, la différence d'intensité avec le pixel
central. Plus la différence est faible, plus elle est propagée vers le pixel central. Cela permet
d'uniformiser les zones d'intensité proches et de conserver les forts contrastes (les contours).
Ainsi, la nouvelle valeur du pixel est calculée en ajoutant la somme des propagations à la
valeur actuelle :
=>6? , = , ^· I I _ = M , MN = , 2.18
MNKP M KP
• _ ∆= 6P
∆=
²
(2.19)
• _/ ∆= ∆= /
Vb c
(2.20)
∆= représente la variation d’intensité entre le pixel central et chacun de ses voisins. est une
constante.
50
CHAPITRE II L’image Numérique
VI. Conclusion :
Une image brute est généralement entachée de dégradations d’origines diverses ; l’objectif
des techniques de prétraitement que nous venons de voir est de minimiser l’influence de ces
dégradations sur les traitements ultérieurs. Parmi ces traitements on cite la segmentation
d’image qui consiste à faire un partitionnement de l’image en ensemble de régions
homogènes, ce qui permet d’avoir une représentation compacte de l’image facilitant ainsi son
interprétation. Face à la croissance de modalités d’acquisition d’images médicales et à la
complexité de celles-ci, la segmentation est devenue une nécessité en imagerie médicale.
Le chapitre suivant est consacré à la segmentation d’images médicales. Nous tenterons de
dresser un état de l’art sur les méthodes actuelles de segmentation d’images médicales.
Dans le tableau II.2, nous illustrons l’application de différentes techniques de prétraitement
vues dans ce chapitre sur une image TEP dégradée.
51
CHAPITRE II L’image Numérique
Réduction de bruit
Filtre Médian
Image 1 Image2
Augmentation de Contraste
Normalisation d’histogramme
Image 2 Image3
Binarisation
Seuil = 104
Image 3 Image 4
Image 3 Image 5
Détection de contours
Filtre de Sobel
Image 5 Image 6
52
CHAPITRE III La Segmentation d’images Médicales
I. Introduction :
L'une des étapes critiques du traitement d'images est la segmentation, celle-ci consiste à
localiser dans une image les régions (ensembles de pixels) appartenant à une même structure
(objets ou scène imagés). Si l'homme sait naturellement séparer des objets dans une image
c'est grâce à des connaissances de haut niveau (compréhension des objets et de la scène).
Mettre au point des algorithmes de segmentation de haut niveau (chaque région est un objet
sémantique) est encore un des thèmes de recherche les plus courants en traitement d'images.
La segmentation est à la base de nombreuses applications tant en vision industrielle, qu'en
imagerie médicale. De nombreuses recherches ont eu lieu sur les méthodes de segmentation.
Il en résulte un très grand nombre de méthodes dont la comparaison, soit en termes de
structure soit en termes de performance, est très difficile.
Grace à l’évolution technologique dans le domaine médicale, un grand nombre de modalités
d’acquisition d’images médicales a vu le jour (Scanner, IRM, TEP,…etc.). Ces technologies
ont grandement augmenté nos connaissances en matière d’anatomie du corps et jouent
actuellement un rôle prépondérant dans le diagnostic médical. Cependant, la croissance du
nombre de modalité d’acquisition confronte l’expert aujourd’hui à un volume très important
d’information à traiter et diagnostiquer, ainsi, afin d’assister l’expert lors de son analyse, il est
devenu primordial de faire appel à des outils informatiques, et plus particulièrement aux
algorithmes de segmentation d’images qui consiste à délimiter les différentes structures,
pathologies ou région d’intérêt figurant dans l’image.
54
CHAPITRE III La Segmentation d’images Médicales
En imagerie médicale la segmentation d’organe est si répandu qu’il serait difficile d’énumérer
la liste des organes communément segmentés, mais en général la liste inclurait au moins ce
qui suit : Le cerveau, le cœur, le foie et les vaisseaux sanguins.
Notons cependant qu’il n’existe actuellement pas d’algorithme universel de segmentation
applicable à tout type d’image; en effet le résultat de la segmentation dépend fortement de
l’information sémantique à discerner, celle-ci varie d’une application à une autre[54] ; de ce
fait nous nous focaliserons essentiellement sur la segmentation d’images médicales et plus
particulièrement aux images cérébrales (fig III.1).
Figure III.1 : Coupe d’une IRM mettant en évidence les différents tissus cérébraux
Source [57]
55
CHAPITRE III La Segmentation d’images Médicales
d’étiquettes (Labelmap). Celle-ci décrit la correspondance spatiale entre les intensités des
voxel dans l’image et les différents types de structure anatomiques présents dans l’image. La
figure III.2 illustre une coupe d’IRM cérébrale (a) ainsi que sa segmentation en tissus (b).
II.1.Définition : [2]
Il n’est pas aisé de trouver une seule définition de la segmentation d’image car cette tâche est
souvent confondue avec la classification. Segmenter une image signifie trouver ses régions
homogènes et ses contours. Ces région et contours sont supposés être pertinents ; en effet, les
régions doivent correspondre aux parties significatives des objets du monde réel et les
contours à leurs contours apparents. Plus formellement, la segmentation est le processus de
partitionnement d’une image I en N sous-ensembles de région (R1,R2,…, RN) tel que :
1.
2. , , ,
1, ,
(3.1)
3.
4. , , ! " # $ ! % & ! ' ( ) * +,.
56
CHAPITRE III La Segmentation d’images Médicales
La segmentation d’image fait partie d’une chaine de traitement que l’on peut résumer en
quatre étapes principales :
57
CHAPITRE III La Segmentation d’images Médicales
Le type d’interaction requis par les méthodes de segmentation varient d’une délimitation
complètement manuelle d’une structure anatomique (segmentation manuelle), à la sélection
d’un point de semence pour une région. La différence entre ces type d’interaction est la
quantité de temps et d’effort requit, ainsi que le degré de formation requis par l’expert.
La segmentation est un vaste sujet d’étude faisant partie des grands thèmes de recherches en
imagerie numérique. De nombreuse publications font état de segmentation il n’est cependant
guère possible de préférer une méthode de segmentations des autres ; en effet, pour valider
58
CHAPITRE III La Segmentation d’images Médicales
une segmentation d’une image, il faut disposer de la vérité terrain, or il n’est pas toujours aisé
de définir de manière objective ou commencent et ou se terminent les objets sur une image ;
De ce fait il peut exister plusieurs segmentations possibles d’une même image et elles sont
généralement subjectives.
Dans des applications pratiques de segmentation, des erreurs dans l'image segmentée sont
tolérées. De fait, si les images à segmenter sont complexes et que les algorithmes sont
entièrement automatiques, l'erreur est inévitable ou du moins fort probable. L'erreur entre
l'image segmentée et l'image de segmentation idéale (image de référence) peut être le meilleur
critère pour évaluer les performances des algorithmes. Dans le cas des images synthétiques,
la segmentation de référence est très fiable et est d'une grande précision. Pour des images
naturelles, la segmentation de référence est subjective, vue l'impact du facteur humain.
L’indice de Jaccard [43][44] est un coefficient dont le but et de mesurer la similarité entre
deux ensembles de données. Ce coefficient représente le quotient de l’intersection des deux
ensembles par leur union. Formellement, il est défini comme suit :
|/ 0|
. /, 0
|/ 0|
(3.2)
Nous présentons dans cette section diverses techniques connues de segmentation en les
organisant selon l’approche qui les régit et les résultats obtenus. Ainsi nous avons retenue
trois approches [23] que sont les méthodes de segmentation utilisant les pixels comme critère
de décision, celles basées sur les régions, et enfin les méthodes basées sur les contours.
59
CHAPITRE III La Segmentation d’images Médicales
III.1. Pixel:
Cette approche consiste à regrouper les pixels de niveaux semblables, indépendamment des
relations de connexité qui peuvent les lier. La technique de seuillage d'histogramme , qui
constitue la majorité des méthodes de segmentation par classification, s'appuie sur l'hypothèse
que les régions de niveaux de gris uniforme produisent des modes suffisamment significatifs
dans les histogrammes de l'image pour que l'on puisse les caractériser directement par la
valeur limite des pixels qui les composent. Il suffit alors de seuiller l'image entre cette limite
pour en extraire les régions.
La figure III.3. illustre une image (b) dont l’histogramme (a) est bimodal ; en effet, nous
pouvons remarquer que l’image contient deux modes distincts : les objets d’intensités claires
et le fond de l’image plus sombre. Ainsi le seuil de binarisation (c) à choisir se situe au niveau
de la vallée qui sépare ces deux modes.
Cette approche travaille donc essentiellement sur l’histogramme de l'image par seuillage. Le
seuillage a pour objectif de segmenter une image en plusieurs classes en n'utilisant que
l'histogramme. On suppose donc que l'information associée à l'image permet à elle seule la
segmentation, c'est-à-dire qu'une classe est caractérisée par sa distribution de niveaux de gris.
Le seuillage est une technique qui permet de classer les pixels en deux catégories, ceux dont
la mesure est inférieure au seuil et ceux dont la mesure excède ou égale le seuil.
Le seuillage peut être appliqué sur toute l’image (Seuillage Global), ou seulement sur une
portion de l’image (Seuillage Local). Il existe aussi une technique de seuillage qui consiste à
partitionner l’image en sous images et de traiter chacune avec son propre seuil (Seuillage
Adaptatif). Le choix des dimensions de chaque sous image sera donc critique.
60
CHAPITRE III La Segmentation d’images Médicales
Dans ces technique le choix d’une valeur de seuil est critique : Avec un intervalle trop large,
on obtient des faux positifs, c’est à dire l'image seuillée contient des pixels qui ne font pas
partie des objets d'intérêt ; généralement il s'agit de bruit ou des structures d'une autre nature
qui ont un niveau de gris proche de celui des objets recherchés.
Avec un intervalle trop étroit, on obtient des faux négatifs, c’est à dire certains objets d'intérêt
n'apparaissent pas ou que partiellement dans l'image seuillée. Plusieurs techniques ont été
proposées pour la détermination automatique de la valeur du seuil. Ces techniques utilisent
généralement des méthodes d’analyse de données pour trouver automatiquement la valeur du
seuil qui sépare au mieux les objets du fond. Parmi ces méthodes nous pouvons citer
l’algorithme de Otsu dont le principe est de choisir la valeur du seuil qui maximise la variance
interclasse. Cette technique ne nous donne pas seulement la valeur du seuil qui permet de
séparer les classes, mais aussi le degré de dissimilarité qui sépare les classes. Notons que
l’algorithme d’Otsu ne s’applique que dans le cas de segmentation en deux régions. Une autre
méthode consiste à rechercher les vallées significatives dans l’histogramme, en considérant
qu’une vallée correspond à la frontière des régions.
La principale limitation des algorithmes cette approche est qu’ils ne tiennent pas compte de
l’information spatiale portée par l’image, rendant ainsi l’algorithme très sensible face au
bruit et aux irrégularités dans l’image. Ces artefacts affectent considérablement
l’histogramme de l’image, de ce fait, la séparation entre les classes devient plus difficile. Le
seuillage est donc souvent employé comme une première étape de prétraitement dans une
séquence d'opérations de traitement d'image et plus particulièrement pour les images
mammographiques où l’on peut généralement distinguer deux principales classes de tissue les
tissues sains et les tissues tumoraux.
III.2. Région :
Dans cette approche, c’est la similitude des points connexes qui est favorisée. Les points
connexes ayant des propriétés similaires vont être réunis dans le même ensemble. Le choix de
ces propriétés détermine le critère de segmentation. Il est en effet nécessaire de définir un
critère d’homogénéité d’une région dans l’image. Le critère qui définit l’homogénéité est
donc un point déterminant des performances de la segmentation. Les principaux critères
utilisés sont niveau de gris la couleur ou la texture.
61
CHAPITRE III La Segmentation d’images Médicales
L'accroissement de région est une méthode bottom-up : on part d'un ensemble de petites
régions uniformes dans l'image (de la taille d'un ou de quelques pixels) et on regroupe les
régions adjacentes de même couleur jusqu'à ce qu'aucun regroupement ne soit plus possible.
Le découpage de région est un processus top-down : on part de l'image entière que l'on va
subdiviser récursivement en plus petites régions tant que ces régions ne seront pas
suffisamment homogènes. Les algorithmes dits Split and Merge sont un mélange de ces deux
méthodes.
• Découper itérativement l'image jusqu'à avoir des blocs contenant exclusivement des
pixels similaires.
• Regrouper les blocs voisins s'ils sont similaires
Les deux phases sont nécessaires afin de garantir que les régions obtenues sont à la fois
homogènes et également les plus grandes possibles.
• La décomposition :
La méthode couramment utilisée consiste à faire une dichotomie par zones de l'image. Le
principe consiste à tester la validité du critère de segmentation sur les différentes zones de
limage. Si le critère est validé l’algorithme s’arrête, sinon la zone considérée est décomposée
en zones plus petites jusqu'à obtention d’une zone qui valide le critère. Pour cela, l’algorithme
commence par définir une zone de la taille de l'image, Si la zone est homogène alors la
décomposition s’arrête. Sinon, la zone est ainsi découpée en 4 zones. Le contenu de chaque
zone est examiné et ainsi de suite jusqu'à ce qu'il n'y ait plus besoin de décomposer les zones :
62
CHAPITRE III La Segmentation d’images Médicales
DECOMPOSITION (Zone)
Debut
Si Critère(Zone)=VRAI Alors Arrêt
Sinon
Diviser la Zone en 4 : Z1, Zz,Z3 et Z4
Pour Chaque Zone Zi (i=1 à 4) FAIRE
DECOMPOSITION i)
DECOMPOSITION(Z
FinPour
FinSi
Fin
L'implémentation la plus simple pour cette méthode consiste à définir une structure d'arbre
appelée quaternaire (QuadTree). C'est un arbre dans lequel chaque nœud représente un bloc.
Chaque nœud possède donc 0 sous-nœud (bloc homogène) ou 4 sous-nœuds (bloc non-
homogène).
La figure III.4 présente l’application de l’algorithme de décomposition sur une image binaire
en considérant la couleur comme critère de similarité. L’arbre quaternaire issu de la
décomposition de l’image est représenté dans la figure III.5.
63
CHAPITRE III La Segmentation d’images Médicales
Dans l’exemple la figure III.4 nous pouvons remarquer que l’algorithme entraine la création
de 22 régions distinctes alors qu’il est clair que l’image initiale n’en comporte que deux. Ainsi
Au final, l'image va contenir de nombreux petits blocs jointifs et similaires. Ce phénomène,
inhérent à la méthode de décomposition, s'appelle la sur-segmentation (over segmentation).
La prochaine étape de l'algorithme va donc être de regrouper les blocs jointifs et similaires en
une seule région.
• La fusion :
Cette étape à pour objectif d'identifier les régions qui composent l'image en regroupant les
blocs jointifs et similaires. Il faut tout d'abord définir le critère de similarité entre blocs. Le
plus simple est d'étendre la définition de similarité entre pixels définie lors de l'étape de
décomposition. Ainsi, on peut assimiler un bloc à un " gros " pixel en calculant sa
valeur/couleur moyenne, et en utilisant le graphe d'adjacence pour naviguer vers les blocs
voisins. Cet algorithme construit les régions une par une, en regroupant progressivement les
blocs jointifs autour d'un bloc de départ. L'algorithme amalgame les blocs adjacents à la
région, formant ainsi une région de plus en plus grande
64
CHAPITRE III La Segmentation d’images Médicales
Cette technique consiste à faire progressivement croître les régions autour de leur point de
départ [49]. L'algorithme se présente en deux étapes:
• Point de départ :
Le choix des points de départ est l'étape est la partie critique de l'algorithme. En effet, l'étape
de croissance va utiliser une mesure de similarité pour choisir les pixels agglomérer. Si le
point de départ est situé dans une zone non homogène, la mesure de similarité va produire de
fortes variations et la croissance va s'arrêter très tôt.
Par conséquent, il convient de choisir les points de départs dans des zones les plus
homogènes possibles (figure II.17). Pour trouver ces zones, on peut réutiliser le principe de
décomposition utilisé dans l'algorithme split/merge. Comme la décomposition finale nous
donne une liste de blocs homogènes, il suffit de choisir le centre des plus gros blocs pour
avoir de bons points de départ.
• Croissance :
Cette étape à pour objectif de faire grossir une région en agglomérant des pixels voisins. Les
pixels sont choisis afin de maintenir l'homogénéité de la région. Pour cela, nous devons
définir un indicateur d'homogénéité. Les pixels voisins sont ajoutés à la région si l'indicateur
d'homogénéité reste vrai. La croissance s'arrête lorsqu'on ne peut plus ajouter de pixels sans
briser l'homogénéité
Cette technique consiste à faire grossir simultanément toutes les régions jusqu'à ce que
l'image soit entièrement segmentée. Cette technique tire son nom d'une analogie avec la
géophysique. On peut en effet considérer les valeurs d'intensité des pixels d'une image comme
une information d'altitude. Dans ce cas on peut représenter cette image (appelée carte
d'élévation) comme un terrain en 3 dimensions. Le principe est alors de remplir
65
CHAPITRE III La Segmentation d’images Médicales
progressivement d'eau chaque bassin du terrain. Chaque bassin représente une région.
Lorsque l'eau monte et que deux bassins se rejoignent, la ligne de rencontre (la ligne de
partage des eaux) est marquée comme une ligne de frontière entre les deux régions. ( figure
III.6)
La carte d'élévation est une image dont les valeurs représentent une altitude. Pour construire
cette image nous allons partir du gradient de l'image. Dans la carte d'élévation, on assigne
l'altitude la plus élevée (HMAX) aux pixels ayant un fort gradient ainsi qu'aux bords de
l'image.
III.3. Contour :
Contrairement à l’approche région, cette approche ignore les relations qui peuvent exister
entre les régions de l’image, elle comprend les techniques de détection de contours. Un
contour est un ensemble de pixels formant une frontière entre deux ou plusieurs régions
66
CHAPITRE III La Segmentation d’images Médicales
voisines, l'épaisseur d'un contour est d'un ou plusieurs pixels et il est défini par une variation
"brusque" de caractéristique, la figure III.7 montre quelques modèles de contours. Un contour
peut être défini comme une marche d'escalier si le contour est net, comme une rampe si le
contour est plus flou ou comme un toit s'il s'agit d'une ligne sur un fond uniforme.
La recherche des contours dans une image numérique est un des problèmes les plus étudiés
depuis l'origine des travaux sur l'imagerie numérique, les approches contours travaillent sur
les discontinuités de la fonction d'intensité dans les images afin de déterminer les contours des
régions. La notion de contour étant reliée à celle de variation, il est évident qu'une telle
définition nous amène tout naturellement vers une évaluation de la variation en chaque pixel.
Nous exposons dans ce qui suit les différentes méthodes de détection de contours.
Un contour dans une image peut être défini comme une zone de l’image où l’intensité des
pixels change brusquement. Le principe de la détection de contours repose donc sur l'étude
des dérivées de la fonction d'intensité dans l'image.
La figure III.8 illustre le modèle de contour de type marche (monodimensionnel) ainsi que sa
dérivée première et seconde.
Une dérivation du premier ordre présentera un maximum pour le contour ; une dérivée
seconde présentera un passage par zéro.
67
CHAPITRE III La Segmentation d’images Médicales
Pour déterminer la position des éventuels contours on utilise les méthodes dérivatives.
L'image dérivée met en évidence les variations de niveau de gris. L'approche dérivative
consiste à balayer une image avec une fenêtre définissant la zone d'intérêt. A chaque position,
un opérateur est appliqué sur les pixels de la fenêtre afin d'estimer s'il y a une transition
significative au niveau de l'attribut choisi. Le résultat obtenu sera alors une image binaire
constituée de deux classes: les pixels des contours et les pixels des non-contours. A partir des
pixels susceptibles d'appartenir à un contour.
• Approche Gradient.
• Approche Laplacien.
II.3.1 Le gradient :
Le gradient est un opérateur dérivatif du premier ordre [38], le calcul du gradient en un pixel
d’une image donne un vecteur caractérisé par son amplitude et sa direction. L'amplitude est
directement liée à la quantité de variation locale des niveaux de gris. La direction du gradient
est orthogonale à la frontière qui passe au point considéré. Soit I une fonction continue qui
représente l'intensité de chaque point d’une image, le gradient de I en un point est le vecteur
V définit comme suit dans un contexte 2D
68
CHAPITRE III La Segmentation d’images Médicales
Y ,, W
Y,
V (,, W XY ,, W Z
YW (3.3)
Et :
_` a,b,c
_a
^_` a,b,c f
V ,, W, [ ] _b e
_` a,b,c
(3.4)
\ _c d
ia ,, W ga j ,, W
_` a,b
h_`
_a k
ib ,, W gb j ,, W
a,b
(3.5)
_b
Dans le cas 2d et :
ia ,, W, [ ga j ,, W, [
_` a,b,c
o
m_`
_a
ib ,, W, [ gb j ,, W, [ k
a,b,c
n _b
m _` a,b,c
(3.6)
l _c
ic ,, W, [ gc j ,, W, [
pV ,, W p qia ,, W r s ib ,, W r
t |ia ,, W | s uib ,, W u
(3.7)
Et
pV ,, W, [ p qia ,, W, [ r s ib ,, W, [ r s ic ,, W, [ r
69
CHAPITRE III La Segmentation d’images Médicales
Dans le cas discret, les dérivées dans les directions horizontale, verticale et de profondeur au
point de coordonnées (x,y,z) sont approchées par la méthode des différences finies :
ia (,, W, [ , s 1, W, [ v ,, W, [
hib ,, W, [ ,, W s 1, [ v ,, W, [ k
ic ,, W, [ ,, W, [ s 1 v ,, W, [
(3.9)
Notons cependant qu’il existe d’autres opérateur donnant une bonne approximation de la
dérivée de l’image tel l’opérateur de Sobel vu dans le chapitre précédent. La figure III.9
illustre l’extraction de contours faites par l’opérateur Sobel suivie d’un seuillage sur une
image radiographique.
A partir du gradient de l’image, l’extraction des contours est communément réalisée à travers
un processus de seuillage par hystérésis Ce type de seuillage permet l'obtention de points de
contour bien connexes entre eux et de conserver que les contours les plus cohérent. Le
principe de cette méthode consiste à utiliser deux seuils distincts S1 et S2 En dessous du seuil
bas S1, on considère qu'il n'y a pas de contours. Au dessus du seuil haut S2, on décide qu'il y a
contour : ces contours sont ensuite complétés par les pixels compris entre S1 et S2 si et
seulement s'ils sont connexes entre eux. L'avantage de la procédure de seuillage par hystérésis
70
CHAPITRE III La Segmentation d’images Médicales
est qu'elle permet d'obtenir plus d'ensembles de points connexes, ce qui facilite grandement
les étapes de chaînage
nage et d'approximation prévues généralement en amont.
La figure III.10 illustre une détection de contour suivie d’un seuillage par hystérésis sur une
l’image synthétique de la figure III.3.
II.3.2 Le Laplacien :
Le Laplacien d’une image est un opérateur dérivatif du second ordre, il est exprimé en un
points (x,y,z) d’une image I par les formules suivantes :
De même que pour l’approche dérivative du premier ordre, la dérivée seconde peut être
approximée par différences finies :
71
CHAPITRE III La Segmentation d’images Médicales
wa = (, s 1, W, [ v 2 · ,, W, [ s , v 1, W, [
hwb ,, W s 1, [ v 2 · ,, W, [ s ,, W v 1, [ k
wc ,, W, [ s 1 v 2 · ,, W, [ s ,, W, [ v 1
(3.12)
Dans cette approche, les points de contour sont caractérisés par des passages par zéro du
Laplacien [45]. La détection de ces points s’effectue généralement en trois étapes :
• Détermination de l’image de polarité IP :
0 ∆ g ~ 0k
g {
z
1 ∆ g •0
(3.13)
A titre d’exemple la figure III.11 illustre quelques éléments structurants de taille unitaire.
L’origine étant marquée par un point rouge.
Ainsi nous pouvons définir les deux opérations morphologiques de bases que sont l’érosion et
la dilatation.
Soit B un élément structurant et Bx cet élément centré en un point x. L’érosion consiste à
poser en chaque pixel x d’un objet X, la question : « Bx est-il contenu entièrement dans X ? ».
La figure III.12 illustre une image binaire (a) ainsi que son érosion (c) par un élément
structurant (b) de type croix.
L’opération de dilatation se définit de manière analogue à l’érosion. A partir de l’élément
structurant B, on se pose pour chaque point x de l’image la question « Bx touche-t-il l’objet
X ? ». En d’autre cela revient à déterminer s’il existe une intersection non vide entre Bx et X.
73
CHAPITRE III La Segmentation d’images Médicales
Figure III.12 : Erosion d’une image binaire par un élément structurant de type croix
La figure III.13 illustre la dilatation (c) d’une image binaire (a) par l’élément structurant (b).
Figure III.13 : Dilatation d’une image binaire par un élément structurant de type croix
La différence entre l’image dilatée et érodée par le même élément structurant de taille unitaire
donne le gradient morphologique GM qui est un operateur de détection de contour pouvant
être résumé par l’équation suivante :
74
CHAPITRE III La Segmentation d’images Médicales
Les contours obtenus par les méthodes citées précédemment ne sont généralement pas
connexes. Il faudra alors appliquer des algorithmes de fermeture de contours .Ce n’est
qu’après fermeture des contours que les régions apparaissent, définies par l’intérieur des
contours.
D’autres classes d’algorithmes ont été proposées et qui sont basées sur une détection globale
du contour de l’objet à l’aide d’un modèle paramétrique déformable comme celui du Contour
Actif aussi connu sous le nom de Snake introduit par Kass et Al en 1987 [28][25].
[28][25
Dans l’approche des Contours Actifs, le contour est un modèle physique décrit par une suite
d’unités soumises à des forces externes qui représentent des caractéristiques de l’image et à
des forces internes d’élasticité et de rigidité
rigidité qui assure une certaine cohérence durant
l’évolution du modèle initial. Une grande rigidité empêche le contour de faire des angles et
des coins alors que l’élasticité permet au contour de s’allonger et de se rétrécir. L’évolution de
ce modèle permettraa au contour de trouver un état d’équilibre en minimisant toutes les
énergies.
L’idée de base est de positionner, au voisinage du contour à détecter, une courbe qui sera
l’initialisation du contour actif et de la déformer successivement jusqu’à ce qu’elle coïncide
avec la frontière de l’objet. La figure III.15 illustre l’initialisation (a) et la déformation (b)
75
CHAPITRE III La Segmentation d’images Médicales
d’un contour actif sur une IRM cérébrale permettant ainsi l’isolation de la pathologie présente
dans l’image.
Le contour est représenté comme un modèle élastique déformable contrôlé par une contrainte
de continuité dont les mouvements de glissement se produisant lors de la déformation lui ont
valu le nom de Snake (ou serpent). La segmentation est réalisée à travers un processus de
minimisation d’une énergie basé sur deux forces de contrainte :
• Force externe : dépend des propriétés du contour à détecter et qui est responsable de
mettre le contour proche d’un minimum local en terme d’énergie.
• Force interne : responsable de l’élasticité et de la rigidité du modèle en question. Une
grande rigidité empêche le contour de faire des angles et des coins alors que
l’élasticité permet au contour de s’allonger ou de se rétrécir.
L’évolution de ce modèle permet au contour de trouver un état d’équilibre en minimisant
toutes les énergies. Contrairement à l’approche consistant à appliquer un masque à l’image
pour extraire les points correspondants aux gradients élevés et ensuite appliquer à ces points
un processus de chaînage suivant un critère de connexité, de forme ou autre, les deux étapes
sont combinées en une seule en cherchant une courbe connexe C qui s’appuiera sur des point
de l’image de gradients élevés; c’est cette courbe qui va représenter le contour de l’objet
76
CHAPITRE III La Segmentation d’images Médicales
auquel on s’intéresse. Les contours actifs sont définis par une courbe continue, fermée ou non,
à extrémités fixes ou non. Ils se déforment à partir d’une position d’initialisation située près
de l’objet d’intérêt. Le modèle est soumis à des forces qui le déforment et le déplacent dans
l’image. Le contour est défini par une représentation paramétrique :
‘’ Ω 0,1 ” •r
Le choix de Kass et ses collaborateurs s’est porté sur une énergie E faisant intervenir plusieurs
termes, que l’on peut écrire sous la forme suivante :
L’énergie interne gère la cohérence de la courbe. Elle maintient la cohésion des points et la
raideur de la courbe. L’énergie interne choisie par Kass est la suivante :
r
¡ r
–`—˜™š—™ ‘ ž Ÿ ¢Ÿ s £ Ÿ ¤¢ Ÿ
¤¡
(3.19)
Le terme du second ordre correspond à la courbure ou rigidité. Il prend une valeur importante
lorsque la courbe s’incurve. Lorsque β=0 la courbe peut prendre une forte convexité
(apparition de coins), par contre lorsque β est grand la courbe tendra vers un cercle si elle est
fermée ou une droite si elle est ouverte. α et β sont les poids respectifs de l’énergie de
77
CHAPITRE III La Segmentation d’images Médicales
continuité et de courbure introduit par l’utilisateur afin de favoriser une énergie du modèle
par rapport à une autre.
L’énergie externe dépend des caractéristiques de l’image. C’est la force qui dirige le contour
vers la position désirée dans l’image. Rappelons que ce sont les contours de formes qui sont
recherchés donc les points de fort gradient.
Les différentes énergies sont définies de manière précise pour chaque application. Elles
correspondent aux forces choisies dans le modèle pour la représentation voulue du contour.
78
CHAPITRE III La Segmentation d’images Médicales
IV. CONCLUSION :
A travers ce chapitre, nous avons tenté de dresser de manière non exhaustive un état de l’art
des différentes techniques de segmentation d’images médicale en les regroupant selon trois
approches : approche Pixel, approche région et approche Contour.
En imagerie cérébrale, l’approche contour est souvent employée pour extraire frontières entre
les différents tissus du cerveau ou afin d’isoler une pathologie présente dans l’image.
Cependant en pratique les contours ne sont que très rarement bien définis rendant ainsi ces
algorithmes très vulnérables face au bruit et aux artefacts.
Dans l’approche région, l’identification des points de départ (Croissance de région) peut
nécessiter une interaction manuelle, de plus la détermination des critères d’homogénéité est
fortement dépendant de l'image. L’approche pixel quant à elle, ne tient pas compte de
l’information spatiale portée par les points de l’image rendant ainsi difficile la création de
régions connexes durant la segmentation.
Ainsi les méthodes de segmentation reposant uniquement sur les observations brutes fournies
par l’image ne peuvent pas à elles seules faire face à la complexité des données et à la
variabilité des structures à étudier dans l’image ; Les intensités pour les mêmes structures
anatomiques peuvent en effet être différents d’une modalité d'imagerie à une autre, ou pour la
même modalité mais à différents instants et sous diverses conditions.
79
CHAPITRE IV Le Recalage d’images
I. Introduction :
La pratique clinique actuelle conduit à manipuler de plus en plus d’images médicales. Les
comparaisons d’images issues d’une même ou de différentes modalités sont souvent réalisées
mentalement par le praticien. En imagerie nucléaire fonctionnelle, la résolution spatiale
limitée et le caractère bruité des images augmentent la difficulté de cette tâche. Une aide à
l’intégration des données est donc utile et ce, de la manière la plus simple, rapide et
automatique possible. Cette intégration passe généralement par un procédé d’alignement
spatial des différentes images, connu sous le nom de recalage.
Durant ces 20 dernières années, un intérêt croissant a été porté au domaine du recalage
d’image, se manifestant par une augmentation du nombre de publication sur le sujet. Faire un
état de l’art s’avère ainsi très délicat étant donné le nombre de publications sur ce sujet. Nous
proposons néanmoins dans ce chapitre une vue d’ensemble des différentes méthodes de
recalage proposées dans la littérature de manière non exhaustive, et ce afin de mettre en
évidence les problématiques relatives au recalage d’images médicales.
Le recalage peut se résumer par le calcul du déplacement ou de la transformation à appliquer
à une image afin que celle-ci ressemble le plus possible à une autre. Ceci engendre un certain
nombre de questions :
• Quelles sont les informations à utiliser pour guider le recalage.
• Comment définir la ressemblance entre deux images.
• Comment déformer une image.
• Comment trouver la « meilleure » solution
Ces questions mènent respectivement aux quatre critères caractérisant une méthode de
recalage :
• Les Attributs : ce sont les caractéristiques, extraites des images, qui permettent de
guider le recalage. On distingue les attributs extrinsèques par exemple des marqueurs
externes fixés sur le patient, et les attributs intrinsèques : information issue de l'image,
comme par exemple les niveaux de gris ou des primitives géométriques extraites.
• Le critère de Similarité : il définit une certaine distance entre les attributs des images
permettant ainsi de quantifier la notion de ressemblance entre images.
• Le modèle de Déformation : il conditionne la manière dont l’image est
géométriquement modifiée. Il peut être global ou local et est caractérisé par un certain
nombre de degré de liberté.
81
CHAPITRE IV Le Recalage d’images
Ce chapitre est consacré au recalage d’images. Dans un premier temps nous présentons la
problématique générale du recalage. Nous discutons ensuite les différents choix d’attributs
possibles en distinguant les méthodes géométriques et les méthodes denses. Dans la quatrième
et cinquième partie nous présentons les différentes métriques de similarité utilisées pour le
calcul de ressemblance ainsi que les techniques d’interpolation pour l’approximation
d’intensité. La sixième partie est consacré aux modèles de déformation, nous présentons enfin
les différentes stratégies d’optimisation.
II. Problématique :
Dans cette partie nous allons poser le problème de recalage de manière plus formelle en
introduisant les différentes notations relatives au problème et en décrivant le principe général
de la procédure de recalage (Fig III.1)
82
CHAPITRE IV Le Recalage d’images
Une étape préliminaire à l’estimation de la transformation est l’extraction à partir des images
brutes des informations et pertinentes (les attributs) permettant de guider le
recalage. et sont donc construites respectivement à partir des fonctions et .
Ces fonctions peuvent regrouper une chaine de traitements incluant par exemple l’extraction
de primitives géométriques, la suppression d’inhomogénéité, la réduction du bruit,
l’extraction de certaines caractéristiques de l’image, etc.
Une fois les informations extraites, il s’agit de définir la fonction d’énergie E permettant
d’associer et une valeur permettant de quantifier leur proximité ou bien leur
ressemblance. Cette fonction E, appelée aussi critère de similarité ou métrique, devrait
théoriquement être minimale (ou maximale) lorsque l’image de référence et l’image à recaler
sont en parfaite correspondance.
La phase d’optimisation consiste enfin à trouver la transformation optimale qui minimise (ou
maximise) la fonction d’énergie E sur l’espace de recherche H. Le problème de recalage peut
ainsi être formulé de la manière suivante :
arg , (4.1)
Dans la figure IV.1 les images et sont construites grâce aux fonctions et
par extraction des attributs des images ; est déformée par application de la
transformation h. Le critère de similarité E permet de quantifier la ressemblance entre les
83
CHAPITRE IV Le Recalage d’images
II.2. Application :
Le recalage est dit monomodal lorsque les images à recaler proviennent de la même modalité
(par exemple IRM-IRM). Dans le cas où les images sont issues de différentes modalités (par
exemple IRM –TEP) le recalage est dit multimodal
D’autre part, le recalage peut être intrapatient si les modalités recalées appartiennent au
même patient ou interpatients si les images à recaler sont issues de patients différents par
exemple patient atlas. Dans ce dernier cas, des algorithmes élastiques sont principalement
utilisés afin de minimiser les différences de morphologies interindividuelles ou la différence
Patient/Atlas.
84
CHAPITRE IV Le Recalage d’images
oncologie, le recalage d’images acquises à partir de modalités différentes [47] (par exemple
IRM – TEP) permet de combiner les informations anatomiques et fonctionnelles
complémentaires fournis par chaque modalité ; des structures anatomiques clairement visibles
sur une telle modalité peuvent par exemple être altérées voire même inexistantes sur une telle
autre modalité. Il est donc important de combiner ces informations afin d’assister le
diagnostic et l’évaluation thérapeutique. La figure IV.2 illustre une IRM (a) et une Image
TEP d’un même patient ainsi que leurs fusions : avant (c) et après (d) recalage.
La corrélation Anatomo-fonctionnelle :
Il s’agit d’améliorer l’interprétation et la localisation anatomique sur des images
fonctionnelles généralement très pauvre sur le plan anatomique.
85
CHAPITRE IV Le Recalage d’images
86
CHAPITRE IV Le Recalage d’images
Le choix des attributs utilisés pour guider le recalage est crucial. Il est largement conditionné
par la nature des images à traiter. Deux approches se distinguent : les méthodes géométiques
et les méthodes denses qualifiées aussi de méthodes iconiques.
Les méthodes géométriques sont basées sur l’extraction dans les images des sous-ensembles
de points homologues (primitive) qu’il s’agit ensuite de mettre en correspondance. Le choix
des primitives doit être guidé par un certain nombre de propriétés : détection facile et précise,
répartition sur l’ensemble de l’image robustesse aux bruits, aux artefacts et aux différents
changements liés à l’acquisition. Trois types de primitives géométriques peuvent être
distingués : les points, les courbes et les surfaces.
III.1.1. Points :
L’une des premières idées, assez naturelle pour guider le recalage est l’utilisation de points
caractéristiques appelés aussi amers (Landmarks). L’objectif est d’estimer une transformation
permettant d’apparier exactement les points homologues, la déformation étant ensuite étendue
à l’ensemble du domaine.
Deux types d’amers peuvent être distingués : les amers extrinsèques et intrinsèques. Les
amers extrinsèques sont des marqueurs externes (cadre stéréotaxique, vis ou marqueurs
externes collés sur la peau) visibles dans la modalité d’imagerie. Historiquement, la première
technique géométrique utilisée consiste à fixer la tête du patient dans un cadre rigide [40]
interdisant toute translation ou rotation. Lors des différentes acquisitions, ce cadre est placé
dans un même repère, ainsi les différentes images acquises seront exactement alignées et ne
nécessiteront aucune transformation géométrique. Malgré l’apparente simplicité de ce
87
CHAPITRE IV Le Recalage d’images
procédé, des problèmes se posent : d’une part il est difficile de positionner la tête du patient
exactement à la même position à chaque examen, en effet les points de fixations du cadre
reposent sur la peau qui présente une grande élasticité. D’autre part, la technique est très
contraignante pour le patient étant immobilisé pendant toute la durée de l’examen. Une
alternative à l’utilisation de marqueurs externes consiste à repérer sur les images des points
anatomiques caractéristiques [14]. Les amers intrinsèques sont déterminés à partir de l’image
soit manuellement par un expert soit automatiquement ou semi-automatiquement en utilisant
certaines propriétés locales portées par le niveau de gris.
III.1.2. Courbes :
L’utilisation de courbes comme primitives géométriques est très intéressantes dans le contexte
du recalage d’images cérébrale, en particulier pour la mise en correspondance des sillons1
corticaux puisqu’ils peuvent être modélisés par une représentation filaire. La méthode la plus
répandue repose sur l’extraction de lignes de crêtes. Les lignes de crête sont définies comme
les lieux dont la courbure principale est localement maximale dans la direction principale
associée. L’extraction précise ainsi que l’étiquetage de ces primitives restant un problème
ardu, de nombreuses équipes continuent à recourir à des méthodes manuelles ou semi-
automatiques basées sur une définition interactive de lignes ou de points d’initialisation à la
surface du cerveau.
III.1.3. Surface :
Les primitives géométriques sans doute les utilisées dans le contexte de recalage d’image sont
les surfaces. Elles sont obtenues par la segmentation de certaines structures anatomiques.
Comme nous l’avons vu dans le chapitre précédant, de nombreuses méthodes ont été
proposées pour la segmentation automatique d’image. Dans un contexte d’image cérébrale,
les modèles déformables apparaissent être les plus privilégiées. Cette popularité est
principalement liée à la possibilité d’introduire facilement des connaissances à priori en
utilisant un modèle moyen et une base de déformation propre associée.
1
Frontière entre les différents lobes du cerveau.
88
CHAPITRE IV Le Recalage d’images
méthodes de cette approche repose sur une extraction manuelle des attributs ce qui se révèle
être très fastidieux en terme de temps pour l’expert.
Dans ce problème, les images Iref et Ireca représentent la même zone du cerveau, mais leurs
rendus sont très différents. En effet, dans la figure IV.3 l’image (a) rend compte de l’aspect
structurel du cerveau, alors que l’image (b) nous informe des activations cérébrales, c'est-à-
dire son fonctionnement. L’image (a) a été acquise par IRM-T2 et l’image (b) par TEP.
L’utilisation de modalités d’acquisition fonctionnelles introduit donc une difficulté de taille :
l’information morphologique dans l’image (b) étant très pauvre, l’extraction de primitives
géométriques devient alors un exercice très difficile, voire impossible dans certains cas.
L’approche géométrique du recalage développée plus haut trouve alors ses limites et de
nouvelles approches ont dû être inventées.
Contrairement aux méthodes géométriques, les méthodes denses ou iconiques n’utilisent pas
une étape préliminaire de réduction de données. Elles utilisent l’information portée par
89
CHAPITRE IV Le Recalage d’images
l’ensemble des voxels de l’image. L’approche dense du recalage se fonde sur la comparaison
locale des intensités. Les primitives utilisées ne sont pas, contrairement aux méthodes
étudiées plus haut, de nature géométrique, mais correspondent à des vecteurs contenant la
position et l’intensité. Elles ne nécessitent aucune extraction d’amers géométriques (i.e :
aucune compréhension de la structure géométrique de l’image), ce qui leur vaut l’appellation
de méthodes de bas niveau. Aucune segmentation des images n’est alors nécessaire. Cette
particularité les rend plus adaptées au recalage multimodal et interpatient des images
médicales.
L’avantage principal des approches denses est qu’elles utilisent toutes l’information portée
par l’image. De plus elles sont pour la plupart complètement automatique. L’inconvénient
majeur de ces méthodes est lié au cout calculatoire important dû au fait de devoir considérer
chacun des voxel des images. De nos jours, grâce au progrès technologiques, la puissance des
stations de travail permettent de réaliser des calculs plus couteux en des temps raisonnable.
90
CHAPITRE IV Le Recalage d’images
Pour mesurer la distance entre deux courbes ou deux surfaces, plusieurs approches sont
possibles. Une première idée utilisée dans l'algorithme ICP (Iterative Closest Point) consiste
à se ramener au problème précédent de mesure de distance entre points correspondants. Cet
algorithme est composé de deux étapes réitérées successivement. La première étape consiste
à associer à chaque point de la primitive à recaler le point de la primitive de référence le plus
proche. La seconde étape consiste ensuite à estimer analytiquement la transformation grâce a
la méthode de Procruste. Une autre idée pour construire une distance entre deux ensembles de
points est de considérer la moyenne du carré de la distance de chaque point de la primitive à
recaler par rapport au point le plus proche de la primitive de référence dans la direction du
centroïde de cette dernière.
Une autre approche consiste à utiliser les cartes de distance. Une carte de distance est obtenue
en fixant à zéro les voxels correspondant à des contours de l'objet de l'image de référence,
puis en calculant par propagation, la distance associée à chaque voxel du point de contour le
plus proche. Une distance couramment utilisée pour la construction de cartes de distance du
fait de son efficacité et de sa rapidité est la distance de chanfrein. Le masque de chanfrein 2D
est représenté par la matrice suivante :
1 4 3 4
! " #$% ( )3 0 3,
(4.2)
3
4 3 4
Les voisins axiaux et diagonaux de chaque point contour ont respectivement les valeurs 1
-
et . . La mesure de la distance globale peut être obtenue en propageant les distances locales
suivant les axes principaux et diagonaux. Cette propagation est illustrée à la figure IV.4.
91
CHAPITRE IV Le Recalage d’images
92
CHAPITRE IV Le Recalage d’images
Enfin, une autre mesure utilisée pour caractériser la distance entre deux ensembles de points
est la distance de Hausdorff En considérant une distance d(x,y) (par exemple la distance
euclidienne) entre deux points x et y, x appartenant à l'ensemble de points /0 et y à celui des
points /1 la distance de Hausdorff entre les deux ensembles /0 et /1 est définie de la manière
suivante :
93
CHAPITRE IV Le Recalage d’images
?1 @
0
, , A BΩCDE B
( ∑G ΩCDE H 1
(4.4)
0
?0 @ , , A BΩCDE B
( ∑G ΩCDE B H B (4.5)
94
CHAPITRE IV Le Recalage d’images
0
L ∑G MCDE
BMCDE B (4.7)
1
L O (4.8)
BΩ B
G MCDE
Ainsi, ce critère, qui a une valeur comprise entre -1 et 1, mesure l'existence ou non d'une
relation linéaire entre les intensités des images et . Une valeur nulle de ce critère
signifie que les deux images sont des réalisations de variables aléatoires non corrélées, par
conséquent non recalées. Il s'agit donc au cours du recalage de maximiser ce critère.
WX |U>
PQQ8 R , S O TU ·
(4.9)
YX |U>
U
95
CHAPITRE IV Le Recalage d’images
T[,U
ZR , S O O T[,U log (4.10)
T[ TU
[ U
V. Interpolation :
L’application d’une transformation consiste à projeter chaque pixel s de l’image de référence
Iref vers une position non-pixel2 ̌ dans l’image à recaler Ireca (Figure IV.7) . Pour cette
raison, nous devons avoir recours à des techniques dites d’interpolation afin d’estimer la
valeur de ̃ dans l’équation (4.1). Ces techniques se basent sur l’information apportée
par les pixels de voisinage pour estimer leur valeur dans l’image résultante. Nous présentons
dans la suite certaines approches d’interpolation.
2
Position de coordonnées non entières.
96
CHAPITRE IV Le Recalage d’images
̃
s
Image de Référence
Image à Recaler
Figure IV.7 : Projection du point s dans l’image à recaler selon une transformation h
` 1H" 1Ha [,U 1H" a [,Ub0 " 1Ha [b0,U "a [b0,Ub0 (4.11)
97
CHAPITRE IV Le Recalage d’images
Un ordre d’interpolation élevé implique une haute précision d’estimation mais aussi une
I reca ( ~
s ) = ∑ k∈S ( ~s ) C ( k ) ⋅ β n ( ~
s − k) (4.12)
Où β n désigne la fonction B-Spline d’ordre n. Les coefficients C(k) sont calculés à partir des
Le recalage d’image est le processus qui consiste à déterminer la différence entre deux
images, cette différence peut être une combinaison de translation, de rotation et de
changement d’échelle, etc.
La figure IV.10 montre les transformations géométriques les plus courantes qui sont les
transformations rigides (a), affines (b) et élastiques (c). Nous pouvons ainsi classer les
98
CHAPITRE IV Le Recalage d’images
Dans ce qui suit, nous présenterons brièvement les différentes classes de transformations ainsi
que leur implication dans le recalage des images médicales. Nous introduirons les modèles
linéaires, puis les modèles non-linéaires
<d , <e et <f et trois (03) paramètres de rotation : gd , ge et gf représentant respectivement les
La transformation rigide 3D implique six paramètres ; trois (03) paramètres de translation
correspondant (9h, :h, ih) dans l’autre image est donnée par le système d’équations suivant :
La relation entre les coordonnées (x,y,z) d’un point d’une image et les coordonnées
99
CHAPITRE IV Le Recalage d’images
9h 9
:h :
j k l(m(n o
ih i
1
(4.13)
1
0 0 0 1 0 0 0 1 0 0 0 1
1 0 0 <d
0 1 0 <e
m j k
0 0 1 <f
(4.15)
0 0 0 1
En imagerie médical, la transformation rigide peut uniquement être utilisée pour recaler deux
images ne présentant pas d’évolution de structures (croissance du crâne, ou modification de la
position ou du volume d’une sous-structure) et dont les imageurs n’ont pas induit de
distorsions. Néanmoins, on peut se servir d’une telle transformation comme bonne
approximation d’une transformation faiblement élastique.
Les transformations affines sont plus générales que les transformations rigides. Contrairement
aux transformations rigides, aucune restriction n’est faite sur les éléments de la matrice de
transformation, ce qui permet ainsi de réaliser des distorsions plus complexes de l’image
telles que l’étirement, le cisaillement ou le changement d’échelle, tout en conservant certaines
propriétés3 géométriques de l’image
Une transformation affine 3D est définie par douze coefficients "[U de la matrice de
transformation. La relation entre les coordonnées dans une image et les coordonnées dans
l’autre image est donnée par le système d’équations linéaire suivant :
3
C’est Euler, en 1748, qui est à l’origine du terme « transformation affine », car dit-il, « deux courbes images
l’une de l’autre par une telle transformation présentent entre elles une certaine affinité ».
100
CHAPITRE IV Le Recalage d’images
1 0 0 0 1 1
Si B=I (matrice d’identité) la transformation se réduit donc à une translation. Dans le cas
particulier où B est une matrice de rotation, nous retrouvons une transformation rigide.
Si B=Diag(Sx,Sy,Sz) la transformation est une mise à l’échelle avec les facteurs Sx ,Sy et Sz
selon les axes X,Y et Z respectivement.
Dans un processus de recalage d’images médicales, les transformations que nous venons de
voir (rigide, affine) ne permettent pas de prendre en considération les déformations dues aux
mouvements physiologiques (respiration, battement de cœur, changement de morphologie)
[34]. Les transformations élastiques ou non-rigides ont été introduites afin de palier à ce
problème.
1 0 0 0 1 1
4
Degré de Liberté (Degree Of Freedom) représente le nombre de variables impliquées dans la transformation
101
CHAPITRE IV Le Recalage d’images
Ainsi la transformation ci-dessous est caractérisée par un DDL de 30. De manière similaire,
ce modèle de transformation peut être étendu à un degré polynomial d’ordre supérieur tel le
modèle polynomial du troisième (DDL=60), quatrième (DDL=105) et cinquième ordre
(DDL=168). Bien que les approches polynomiale offre un DDL plus important, elles ne sont
cependant pas utilisables dans un contexte de recalage non-rigide d’images médicales ; en
effet leur capacité à tenir compte des déformations locales dans les structures anatomiques est
très limitée car elles sont modélisées par un changement globale de la forme. De plus les
modèles polynomiaux d’ordre important ont tendance à introduire des artefacts tels que des
oscillations.
L’une des techniques de déformation les plus utilisées pour le recalage non-rigide est la
déformation basée sur une grille [52][51][16] : une grille régulière est superposée à l’image
formant ainsi un ensemble de point sk dits points de contrôle régulièrement espacée par une
distance σ. Chaque point de contrôle sk est caractérisé par un déplacement pk. La valeur de
déplacement en chaque point de l’image est déterminée par interpolation, l’interpolation B-
Spline cubique est souvent employée afin de garantir une déformation élastique cohérente
[27]:
s − sk
h( s ) = s + ∑ pk ⋅ β 3 ( ) (4.19)
s k ∈S ( s ) σ
102
CHAPITRE IV Le Recalage d’images
VII. Optimisation :
La résolution du problème d’optimisation de l’équation (2.1) revient à déterminer le vecteur
de paramètres µ pour lequel le coût de la transformation est minimal.
hk +1 = hk + a k d k (4.20)
recherche à l’itération k. Ainsi à chaque itération, une nouvelle solution hk +1 est générée à
l’optimum.
103
CHAPITRE IV Le Recalage d’images
∂E
hk +1 = hk − a k (4.21)
∂h
Le facteur de gain est généralement exprimé par une fonction décroissante de k ce qui
implique un pas de recherche initial important qui décroit tout au long des itérations faisant
ainsi augmenter la précision.
VII.2. Quasi-Newton :
Les méthodes de Quasi- Newton sont inspirées du célèbre algorithme de Newton-Raphon
défini par :
104
CHAPITRE IV Le Recalage d’images
H x2 z{0 |
|}
wb0 w y
(4.22)
Où 2 y
représente la matrice hessienne de la mesure de ressemblance E, évaluée à la
solution w. L’utilisation de la dérivée du second ordre permet théoriquement une meilleure
convergence vers le minimum que l’algorithme de descente de gradient. Cependant le calcul
de la matrice hessienne ainsi que de son inverse est très couteux particulièrement pour les
problèmes d’optimisation d’ordre important tel le recalage non-rigide.
?w ~ x2 y
z{0 (4.23)
Ainsi le calcul de la transformation à chaque itération est exprimé par l’équation suivante :
H "w ?w
|}
wb0 w | (4.24)
Plusieurs méthodes permettant la construction de la série 5>?w => ont été proposées dans la
littérature, parmi elles nous citons la formule DFP (Davidon–Fletcher–Powell) ainsi que la
méthode BFGS (Broyden-Fletcher-Goldfarb-Shanno).
105
CHAPITRE IV Le Recalage d’images
même schéma général itératif de l’équation (4.20). La direction de recherche dk est exprimée
par une combinaison linéaire faisant intervenir à la fois l’expression du gradient ainsi que la
direction de recherche précédente :
8w H Kw 8w{0
|}
|
(4.25)
ƒ w h·ƒ w
•" H € " Kw•‚
8hw{0 · ƒ w H ƒ w{0 h
(4.26)
ƒ w h · ƒ w H ƒ w{0
2$ <$ $ H „< $#$… Kw †
8hw{0 · ƒ w H ƒ w{0 h
(4.27)
La notation ƒ
|}
w | y
a été introduite pour un souci de clarté.
Une approche hybride combinant ces deux expressions a été proposée dans [56] :
106
CHAPITRE IV Le Recalage d’images
VIII. Conclusion :
Après ce tour d’horizon sur différentes techniques de recalage, nous pouvons conclure sur la
diversité des approches proposées pour recaler un jeu d’images et sur la complexité ainsi que
la subjectivité du choix de la technique la plus adaptée à ce jeu de données. En effet, ce choix
est complexe et porte sur les primitives à extraire, le type de la transformation géométrique à
considérer, le critère de similarité à exploiter et enfin la stratégie d’optimisation à adopter.
Pour la résolution du problème de recalage, deux approches principales ont été proposées. Le
premier schéma a concerné l’approche géométrique. Trois méthodes appartenant à cette
classe ont été données : l’appariement de points, de courbes et de surfaces. Les limites de
cette approche ont été illustrées en démontrant son inadéquation au cadre multimodal du
recalage en particulier dans un contexte multimodal anatomo-fonctionnel. De ce fait, nous
nous sommes retournés vers l’approche iconique qui s’avère la plus adaptée dans notre
contexte. (Recalage ATLAS/TEP)
L’objectif principal de notre projet étant la segmentation d’image TEP en intégrant les
connaissances à priori sur l’anatomie cérébrale, nous proposons une méthode de segmentation
par recalage entre un Atlas anatomique cérébrale et le volume TEP à segmenter. La
méthodologie que nous avons adoptée ainsi que les détails de conception sont présentés dans
le chapitre suivant.
107
CHAPITRE V Méthodologie et Conception
CHAPITRE V
Méthodologie et Conception
108
CHAPITRE V Méthodologie et Conception
Introduction :
Dans ce chapitre nous présentons les principes de notre approche ainsi que les principales
fonctionnalités de l’outil de nous avons élaboré.
Dans la section 1 nous exposons le principe de notre approche de segmentation à savoir la
segmentation par atlas. Dans la section 2 nous présentons les données utilisés pour
l’élaboration nos tests, ces données représentent l’atlas utilisé ainsi que les volumes TEP à
segmenter au format Analyze. Ce format est étudié de manière plus formelle dans la section 3.
Les résultats de notre approche de segmentation sont présentés dans la section 4, dans un
premier lieu nous présentons les résultats de manière visuelle puis, dans un second lieu nous
comparons les différents résultats obtenus par moyen d’indice de Jaccard selon différents
métrique de similarités (SSD, CC et MI)
µ Elastique séquentiellement sur chacun des deux atlas segmentés selon une interpolation au
plus proche voisin (d’ordre 0), cela afin de préserver les mêmes intensités après segmentation.
Nous obtenons ainsi une segmentation du volume TEP. La minimisation de dissimilarité est
réalisée à travers un algorithme itératif de descente de gradient. Nous avons intégrer
ELASTIX à notre implémentation. Cet outil est un Framework OpenSource. Elastix se
compose d'une collection d'algorithmes (Calcul de métrique, Interpolation, Transformation)
dédiés au problème de recalage d’images médicales.
La conception modulaire d’Elastix permet à l'utilisateur de rapidement configurer, tester et
comparer les méthodes de recalage pour une application spécifique. Une interface de ligne de
commande permet le traitement automatisé au moyen de scripts
109
CHAPITRE V Méthodologie et Conception
TEP ATLAS
RECALAGE RIGIDE
µ Affine
TRANSFORMATION
ATLAS aligné
RECALAGE ELASTIQUE
µ Elastique
110
CHAPITRE V Méthodologie et Conception
1
LONI Laboratory Of Neuro Imaging UCLA http://www.loni.ucla.edu/
111
CHAPITRE V Méthodologie et Conception
• L’entête HDR : Ce fichier contient seulement les informations du volume telles que
ses dimensions, le type de données utilisées dans le volume…etc. Ces informations
sont nécessaires lors de la lecture d’un volume.
• Le Fichier IMG : Ce fichier stocke les données utiles du volume, c'est-à-dire les
intensités des voxels.
Les deux fichiers (HDR et IMG) doivent porter le même nom afin qu’une relation puisse
s’établir lors de la lecture d’un volume.
III.1.1. Structure :
La taille du fichier d’entête est de 348 octets où chaque octet représente une information
concernant le volume. La structure du fichier est illustrée dans le tableau 13 ci-dessous.
2
BIC McConnel Brain Imaging Center Montréal http://www.bic.mni.mcgill.ca/
112
CHAPITRE V Méthodologie et Conception
50 à 55 Inutilisé
60 à 69 Inutilisé
92 Inutilisé
112 Scale_Factor Float/4octets
(**)
116 Zero_intercept Float/4octets
120 à
inutilisé
348
Cet attribut stocke le code du type de donnée utilisée pour les intensités des voxels, le tableau
V.2 illustre le code associé à chaque type.
3
Source : Mayo Clinic Analyze 7.5 Format: http://www.mayo.edu
113
CHAPITRE V Méthodologie et Conception
Tableau V.2 : Codification des types utilisés pour représenter les intensités
Notons cependant que pour les volumes médicaux, les types communément utilisés sont :
DT_Unsigned_Char (Sur 8 bits) et DT_Signed_Short sur (16 bits)
Ces attributs représentent les coefficients d’une fonction linéaire permettant de calculer
l’intensité réelle d’un voxel en fonction de l’intensité brute dans le fichier IMG.
III.1.2. Représentation :
Pour la représentation des informations d’entête, notre choix s’est porté sur une structure de
données de type enregistrement :
114
CHAPITRE V Méthodologie et Conception
Structure Header
{
Taille : Entier ; //Taille en octet du fichier hdr = 348
NbDim : Entier; //Nombre de dimension du Volume
Xdim : Entier; //Dimension sur l’axe X
Ydim : Entier ; //Dimension sur l’axe Y
Zdim : Entier ; //Dimension sur l’axe Z
NbVol : Entier; //Nombre de volume
TypeDonnees : Entier; // l’attribut DataType
Unite : Chaine de caractères //Unité de mesure des voxel ; ex : « mm »
Bpv : Entier ; //Nombre de bits utilisés pour la représentation des intensité
VoxelX : Réel ; //Largeur d’un voxel
VoxelY : Réel ; //Longueur d’un voxel
VoxelZ : Réel ; //Epaisseur d’un voxel
Politique: Chaine de caractères //vaut « little-endian » ou « big-endian »
};
III.1.3. Exemple :
Le tableau V.3 illustre le code hexadécimal d’un fichier HDR. Nous allons à partir de ce
fichier, extraire certains attributs selon la définition de la structure HDR.
Afin de calculer la valeur d’un attribut codé sur plusieurs octets, il est primordial de
déterminer au préalable la politique de stockage utilisée ; il en existe deux :
Etant donné que la taille du fichier HDR est fixe (348 octets), l’attribut Size_of_HDR
déterminera quelle est la politique utilisée.
115
CHAPITRE V Méthodologie et Conception
Déplacement
00 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15
OS : 0 à 15 00 00 01 5c 00 00 00 00 00 00 00 00 00 00 00 00
OS : 16 à 31 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 32 à 47 00 00 00 00 00 00 72 00 00 04 00 40 00 40 00 40
OS : 48 à 63 00 01 00 00 00 00 00 00 6d 6d 00 00 00 00 00 00
OS : 64 à 79 00 00 00 00 00 00 00 04 00 10 00 00 00 00 00 00
OS : 80 à 95 40 40 00 00 40 40 00 00 40 40 00 00 00 00 00 00
OS : 96 à 111 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 112 à 127 3e 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 128 à 143 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 144 à 159 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
0OFFSET
OS : 160 à 175 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 176 à 191 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 192 à 207 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 208 à 223 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 224 à 239 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 240 à 255 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 256 à 271 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 272 à 287 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 288 à 303 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 304 à 319 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 320 à 335 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 336 à 347 00 00 00 00 00 00 00 00 00 00 00 00
Il s’agit donc de la politique Little Endian qui est utilisé pour ce fichier. Dans le cas d’une
politique Big Endian la valeur hexadécimale aurait été de (5C010000).
116
CHAPITRE V Méthodologie et Conception
L’attribut REGULAR vaut la valeur « r » ce qui signifie que tous les volumes ont les mêmes
dimensions. (Si éventuellement il existe plus d’un volume dans le fichier)
117
CHAPITRE V Méthodologie et Conception
Data_type vaut la valeur 4 ; par conséquent, le type de donnée utilisé pour représenter les
intensités des voxel est DT_SIGNED_SHORT (Voir Tableau 2)
118
CHAPITRE V Méthodologie et Conception
Les dimensions en millimètre d’un voxel sont : 3.00 x 3.00 x 3.00 mm.
L’intensité réelle d’un voxel IntensitéRéelle est donc donnée par la fonction linéaire suivante :
III.2.1. Description :
Un volume est représenté sous forme de matrice 3D. Chaque élément de la matrice représente
l’intensité d’un voxel (Figure V.5)
119
CHAPITRE V Méthodologie et Conception
La matrice est de dimensions Xdim x Ydim x Zdim, regroupant ainsi l’ensemble des coupes
de chacune des trois vues possibles.
Le choix d’une vue parmi les trois dépend de l’axe choisi. La figure V.6 illustre la première et
dernière coupe de chacune des trois vues.
III.2.2. Lecture :
Le fichier IMG stocke la séquence de toutes les intensités du volume de manière linéaire,
organisé, ligne par ligne, coupe par coupe ; ce fichier peut être représenté sous forme d’un
vecteur ligne regroupant ainsi l’ensemble de toutes les intensités dans le volume.
120
CHAPITRE V Méthodologie et Conception
La lecture d’un fichier IMG consiste donc à faire le passage d’une représentation linéaire vers
une représentation tridimensionnelle. La Figure V.7 illustre ce processus.
121
CHAPITRE V Méthodologie et Conception
Header : Hdr ;
Entiers : i , j , k , x ;
Début
LectureHDR(BufferHdr, hdr) ; //Lecteur du bufferHdr dans la structure Header : hdr
Allocation_Volume(V ( hdr.Xdim , hdr.Ydim , hdr.Zdim) ) //Allocation dynamique du volume V
x=1
Si (hdr.bpv = 16 ) Alors
Si hdr.Politique= «Big-Endian » Alors
Pour (i=1 à hdr.Xdim)
Pour (j=1 à hdr.Ydim)
Pour (k=1 à hdr.Zdim)
V( i , j , k ) bufferimg(x)*255 + bufferimg(x+1)
x x+2
FinPr;
FinPr;
FinPr;
FIN
122
CHAPITRE V Méthodologie et Conception
III.2.3. La visualisation :
Comme nous l’avons vu dans la section précédente, les données brutes du volume peuvent
être représentées sur 8 ou sur 16 bits. Dans le cas de volume 8 bits, la visualisation est en
niveau de gris ce qui permet une exploitation totale de la dynamique des intensités.
Cependant pour les intensités sur 16 bits une normalisation devient alors nécessaire ; dans un
premier lieu nous avons normalisé les intensités du volume de manière linéaire en une échelle
niveau de gris (de 0 à 255) de la manière suivante :
255
MIN
123
CHAPITRE V Méthodologie et Conception
La figure V.9 illustre une coupe axiale d’IRM 16 bits normalisée en niveau de gris (a) et
pseudocouleurs (b)
Figure V.9 : Coupe axiale d’IRM niveau de gris (a) et pseudocouleurs (b)
124
CHAPITRE V Méthodologie et Conception
IV.1.1. Fusion :
La fusion [14] consiste à calculer l’image Fusion contenant l’information des deux volumes
recalée : (TEP et Atlas) et ce par opérations arithmétiques ou logiques sur les intensités. Dans
ce projet nous avons établi 3 modes de fusions :
• Fusion par moyenne pondérée : L’image Fusion est calculée en moyennant les
intensités des deux volumes TEP et Atlas. Le poids α permet d’introduire un dosage
afin de privilégier un des deux volumes par rapport à l’autre lors de la visualisation.
· 1 · 0" "1
125
CHAPITRE V Méthodologie et Conception
• Fusion sur canaux RGB distincts : Le volume Fusion est construit en remplaçant
chacun des deux volumes à fusionner sur un canal RGB distinct ; nous avons
représenté le volume TEP sur le canal bleu et le volume Atlas sur le canal rouge.
#$% , 0,
Les résultats des trois modes de fusions avant et après recalage sont présentés dans la figure
V.12
126
CHAPITRE V Méthodologie et Conception
127
CHAPITRE V Méthodologie et Conception
Début
Pour (i=1 à Xdim)
Pour (j=1 à Ydim)
Pour (k=1 à Zdim)
Si Atlas( i , j , k ) ≠ 0 Alors
Brain ( i , j , k ) Volume ( i , j , k )
Sinon
Brain ( i , j , k ) 0
FinSi
FinPr;
FinPr;
FinPr;
FIN
128
CHAPITRE V Méthodologie et Conception
Début
Remplissage(Germe)
FIN
-----------------------------------------------------------------------------------------------------------
Procédure : Remplissage ( Voxel : p)
Début
Si |V (p) – V(Germe)| ≤ Tolerance Alors
RdI RdI ( p
Pour chaque voisins 6-adjacent p’ de p Faire
Remplissage(p’)
FinPr ;
Fsi ;
FIN
129
CHAPITRE V Méthodologie et Conception
Dans la figure V.16 une hyperfixation est superposée à l’atlas recalée cette combinaison
permet non seulement de localiser la RdI dans l’atlas mais aussi de déterminer de manière
automatique le taux de participation de chaque structure anatomique dans la RdI.
La figure V.17 illustre une capture de notre application après extraction d’une RdI , celle-ci
est localisée au niveau de 5 structures, le taux de participation de chacune d’entre elles est
calculé de manière automatique en terme de pourcentage (%) et de volume (mm3)
130
CHAPITRE V Méthodologie et Conception
La méthode que nous avons adoptée pour évaluer de manière quantitative les résultats de la
segmentation consiste à compter le nombre de voxels corrects et faux dans le volume résultat
par rapport à la vérité terrain, nous pouvons ainsi calculer par la suite le pourcentage Tc de
voxels bien détectés.
Etant donné que nous ne disposions malheureusement pas de vérité terrain experte en image
TEP à cause de leur complexité, nous avons établi ces tests sur un volume IRM qui a été
soigneusement segmentée en tissus par un expert. Ces données ont été téléchargées au niveau
du site de OASIS4
La figure V.18 illustre le volume IRM en entrée (a), sa segmentation manuelle (b) ainsi que
les résultats de la segmentation selon les trois mesures de similarités. L’indice Tc
correspondant à chacune des trois méthodes est représenté dans la figure V.19.
Figure V.18 : Résultats de la segmentation selon les trois métrique L2, CC et l’IM.
4
OASIS : Open Access Series of Imaging Studies – Projet visant à rendre des données d'IRM du cerveau à la
libre disposition de la communauté scientifique. http://www.oasis-brains.org/
131
CHAPITRE V Méthodologie et Conception
86
84
82
80
78
76
74
72
70
68
66
L2 (72.5%) CC (75,3%) IM (84,2%)
V. Discussion :
Dans ce chapitre nous avons présenté notre approche de segmentation basée atlas qui consiste
à déterminer les transformations rigide et élastique qui conduisent au meilleur alignement
TEP / Atlas.
Nous avons dans un premier lieu présenté les résultats sous forme de fusion et de
triangulation. La fusion des volumes TEP / Atlas a permis d’une part d’évaluer de manière
visuelle les résultats du recalage qui se révèlent très concluant. D’une autre part la fusion offre
la possibilité d’intégrer les informations anatomiques dans le volume TEP facilitant ainsi de
manière conséquente l’établissement de diagnostic pour l’expert. La triangulation quant à elle
sert à se localiser dans le volume TEP dans un sens anatomique.
Puis, dans un second lieu nous avons évalué de manière quantitative les résultats de la
segmentation selon chacune des métriques suivantes : le critère des moindre carrés, le
coefficient de corrélation et enfin l’information mutuelle. La qualité du recalage et donc de la
segmentation a été fortement liée à la métrique choisi. Les résultats de notre expérience ont
montré l’efficacité de l’information mutuelle par rapport au coefficient de corrélation et à la
mesure L2.
132
Conclusion :
Dans ce projet, nous avons présenté une approche de segmentation d’image TEP cérébrales en
intégrant les connaissances à priori sur l’anatomie du cerveau.
L’intérêt principal de notre approche réside dans la donnée d’une connaissance à priori
résumée sous forme picturale, c’est-à-dire une image, que l’on qualifie de modèle ou d’atlas
représentant de manière implicite la connaissance anatomique.
Notre approche reste cependant inapplicable en temps réel étant donnée la complexité de
calcul de l’information mutuelle ainsi que de son gradient. En perspective, nous prévoyons
l’intégration au niveau d’ELASTIX d’autres algorithmes d’optimisation contournant le calcul
du gradient (Simplexe, Recuit Simulé).
Bibliographie
1 Anne Strauss-De la radiologie conventionnelle au pixel-Université Pierre et
Marie Curie,-1994
25 Lei He, Zhigang Peng, Bryan Everding, Xun Wang,Chia Y.Han , Kenneth
L.Weiss, William G.Wee-A comparative study of deformable contour methods
on medical image segmentation-Image and Vision Computing 26 141–163
ScienceDirect-2008
En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil majeur en
oncologie pour le diagnostic, le suivi et l’évaluation thérapeutique. Contrairement aux modalités habituelles
(IRM ou Scanner), la TEP fournit des informations sur la fonction cellulaire du corps plutôt que sur son
anatomie ; ce qui permet ainsi de diagnostiquer des lésions à un stade très avancé, voire avant même
qu’elles n’aient de manifestation morphologique. Cependant, du fait de la nature fonctionnelle des images
TEP, la localisation des structures anatomiques dans une telle image reste une tâche très difficile ; en effet,
les images TEP ne fournissent qu’une très faible information anatomique. La segmentation d’images TEP
requiert donc l’intervention d’un expert médical qui pourra s’affranchir de ces artefacts grâce à ses
connaissances à priori du corps à étudier ; dans ce cas l’expert procède à une segmentation manuelle d’un
volume coupe par coupe ce qui s’avère être très fastidieux et couteux en matière de temps. Nous présentons
dans ce mémoire, une approche de segmentation d’image TEP cérébrales combinant à la fois, l’information
fournie par le volume TEP à segmenter et des connaissances apriori sur le volume fournis sous forme d’Atlas
Anatomique. Le principe de notre approche consiste à appliquer un recalage entre le volume TEP en entrée
et l’atlas anatomique, déterminant ainsi, la transformation géométrique conduisant au meilleur alignement
TEP/Atlas.
Mots clés :
Segmentation; Recalage d’images; Atlas; Optimisation; Information Mutuelle; TEP; Imagerie
Médicale; Médecine Nucléaire; Métric; Imagerie Fonctionnelle.