Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
Joachim Buyse
reconstructiealgoritmes voor microCTPerformantieanalyse van iteratieve
Academiejaar 2011-2012Faculteit Ingenieurswetenschappen en ArchitectuurVoorzitter: prof. dr. ir. Jan Van CampenhoutVakgroep Elektronica en Informatiesystemen
Master in de ingenieurswetenschappen: computerwetenschappen Masterproef ingediend tot het behalen van de academische graad van
Begeleider: Bert VandeghinstePromotoren: prof. Christian Vanhove, prof. dr. Stefaan Vandenberghe
Joachim Buyse
reconstructiealgoritmes voor microCTPerformantieanalyse van iteratieve
Academiejaar 2011-2012Faculteit Ingenieurswetenschappen en ArchitectuurVoorzitter: prof. dr. ir. Jan Van CampenhoutVakgroep Elektronica en Informatiesystemen
Master in de ingenieurswetenschappen: computerwetenschappen Masterproef ingediend tot het behalen van de academische graad van
Begeleider: Bert VandeghinstePromotoren: prof. Christian Vanhove, prof. dr. Stefaan Vandenberghe
De auteur en promotoren geven de toelating deze scriptie voor consultatie beschikbaar te stellen
en delen ervan te kopieren voor persoonlijk gebruik. Elk ander gebruik valt onder de beperkingen
van het auteursrecht, in het bijzonder met betrekking tot de verplichting uitdrukkelijk de bron
te vermelden bij het aanhalen van resultaten uit deze scriptie.
The author and promoters give the permission to use this thesis for consultation and to copy
parts of it for personal use. Every other use is subject to the copyright laws, more specifically
the source must be extensively specified when using from this thesis.
Gent, Juni 2012
De promotoren De begeleider De auteur
Prof. dr. C. Vanhove ir. Bert Vandeghinste Joachim Buyse
Prof. dr. S. Vandenberghe
Voorwoord
“Most of us, swimming against the tides of trouble the world knows nothing about,
need only a bit of praise or encouragement - and we will make the goal.”
Jerome Fleishman
Dit werk had nooit kunnen worden wat het is, zonder de hulp en steun van zo veel mensen. Ik
zou hierbij iedereen die op een of andere manier een bijdrage heeft geleverd van harte willen
bedanken.
In het bijzonder wil ik mijn dank uitdrukken aan mijn begeleider Bert Vandeghinste, die ondanks
zijn eigen doctoraat toch steeds de tijd vond om me te helpen wanneer ik een probleem had.
Ook wil ik mijn promotoren Stefaan Vandenberghe en Christian Vanhove bedanken om dit
thesisonderwerp speciaal voor mij op te stellen. Zonder jullie was dit werk er niet geweest.
Ik wil ook mijn ouders en zus bedanken voor de enorme steun en vertrouwen die ze mij gegeven
hebben. Jullie hielpen me steeds de moed te vinden om voort te gaan. Tot slot wil ik ook nog
mijn vrienden bedanken om altijd klaar te staan voor de broodnodige ontspanning en plezier,
wanneer ik er even tussenuit moest.
Aan iedereen, bedankt!
Joachim Buyse
v
Performantieanalyse van IteratieveReconstructiealgoritmes voor microCT
door
Joachim Buyse
Masterproef ingediend tot het behalen van de academische graad van
Master in de ingenieurswetenschappen: Computerwetenschappen
Academiejaar 2011-2012
Promotoren: prof. dr. Christian Vanhove, prof. dr. Stefaan Vandenberghe
Begeleider: ir. Bert Vandeghinste
Faculteit Ingenieurswetenschappen en Architectuur
Universiteit Gent
Vakgroep Elektronica en Informatiesystemen
Voorzitter: prof. dr. ir. Jan Van Campenhout
Samenvatting
In dit werk wordt de implementatie van 5 iteratieve reconstructiealgoritmes – SART, OS-
SART, OS-EM, OS-ISRA en OS-MLTR – voor microCT op GPU vergeleken met analytische
reconstructie. De algoritmes worden aan de hand van een water, een laag contrast en een
draadfantoom beoordeeld op ruisbestendigheid, contrast, spatiale resolutie en uitvoeringstijd.
Het blijkt dat OS-MLTR superieure resultaten levert op gebied van ruisbestendigheid en
contrast, wanneer als startbeeld een iteratie op een lagere resolutie uitgevoerd wordt. OS-
ISRA presteert onafhankelijk van het startbeeld het beste op spatiale resolutie, maar door
de lage ruisbestendigheid van het algoritme zijn de resultaten van analytische reconstructie,
OS-SART en OS-MLTR aantrekkelijker. Analytische reconstructie blijft nog steeds minstens
dubbel zo snel als de iteratieve algoritmes, maar hun uitvoeringstijden, die voor OS-ISRA en
OS-MLTR zelfs onder de 20 minuten liggen, zijn niet langer onpraktisch. Verder onderzoek
naar het versnellen van backprojecties kan deze tijden nog gevoelig verbeteren.
Trefwoorden: Performantie, Iteratieve Reconstructie, microCT
Performantieanalyse van IteratieveReconstructiealgoritmes voor microCT
Joachim BuyseSupervisors: Bert Vandeghinste, Christian Vanhove, Stefaan Vandenberghe
Abstract—In recent years, iterative reconstruction for microCThas become increasingly popular. With the introduction of generalpurpose GPUs, iterative techniques could become a valuablealternative for analytical reconstruction. In this work, severaliterative reconstruction algorithms implemented on GPU werecompared to FBP analytical reconstruction. Based on a water, alow contrast and a wire phantom, we compared the performanceof the different algorithms based on noise, contrast, spatialresolution and execution time. For each of these parameters wealso examined the influence of the start image. We found thatOS-MLTR and OS-SART in combination with a multiresolutionalstart image have the best noise resistance and contrast. Amongthe iterative algorithms, OS-ISRA has the best spatial resolution,yet because of its low noise resistance, analytical reconstruction,OS-MLTR and OS-SART create more visually pleasing images.Analytical reconstruction remains fastest, yet more research onfaster backprojection could speed up iterative algorithms to thesame level.
Index Terms—microCT, iterative, reconstruction, GPU, perfor-mance
I. INTRODUCTION
ANALYTICAL reconstruction has been the de facto stan-dard in CT for the past 40 years. It is the fastest way to
reconstruct an image, but has some distinct drawbacks. It isimpossible to incorporate accurate noise models or a prioriinformation about the image in the reconstruction process,and the mathematics become very difficult for non-standardgeometries. When considering microCT, the imaging scale getsmuch smaller and accurate noise modelling becomes moreimportant. Iterative techniques on the other hand do allowfor incorporating more accurate models, but due to the largedata sets and the fact that multiple reconstruction iterations areneeded, they can take days to converge to a solution. Due torecent improvements of general purpose Graphical ProcessingUnits (GPUs) however, it has become feasible to implementiterative algorithms on the GPU, effectively speeding them updue to parallelization. Hereafter we will introduce five iterativereconstruction algorithms for microCT, each one implementedon the GPU. We compared them to analytical reconstructionbased on noise, contrast, spatial resolution and reconstructiontimes. We also examined the influence of the start image onthese respective parameters.
II. METHODS
A. Hardware
All algorithms were implemented in NVidia R©CUDATM
, anAPI that allows general purpose programming for GPU. Tests
were performed on a NVidia TeslaTM
M2070-Q card. Thisis one of NVidias recent high-end GPUs, containing 448cores with 6GiB of onboard RAM memory. The host PC ranon an Intel R©Xeon R©E5620 quadcore processor and contained16GiB of RAM memory. Scans were made on a GM-I R©FLEXTriumph
TMscanner. This is a pre-clinical tri-modal scanner,
containing microCT, PET and SPECT subsystems.
B. Algorithms
The algorithms that were implemented are SART[1],OS-SART[2], OS-EM[3], OS-ISRA[4] and OS-MLTR[5]. Wechose to use the ordered subset extension of the algorithms,due to the limitations we faced concerning available memory.The full set of projections takes approximately 5GiB ofspace, which consumes most of the available memory on theGPU. Dividing the projections in subsets reduces this amountsignificantly, since only the projections in a subset need tobe loaded into the memory. Table I contains the number ofsubsets for each algorithm. We compared the normalized root-mean-square error (NRMSE) between subsequent iterationsfor different subset sizes. The lower the NRMSE betweeniterations, the further the algorithm has converged. For eachalgorithm we chose the number of subsets that let it convergefastest.
TABLE INUMBER OF SUBSETS PER ALGORITHM
SART OS-SART OS-EM OS-ISRA OS-MLTR
nr. subsets 1024 256 512 256 256
Equations 1-4 show the expressions for the differentalgorithms that were implemented – OS-SART and SARTshare the same equation since SART is a special case ofOS-SART. In the equations, the aij represent the coefficientsin the projection/backprojection matrix, xj the calculatedattenuation values, bi the log-adjusted measurements and yithe unadjusted measurements.
xn+1j = xnj +
1∑
i′∈Sn
ai′j
∑
i∈Sn
aij
bi −∑k
aikxnk
∑k
aik(1)
xn+1j =
xnj∑i′∈Sn
ai′j
∑
i∈Sn
aijbi∑
k
aikxnj(2)
2
xn+1j = xnj
∑i∈Sn
aijbi
∑i∈Sn
aij∑k
aikxnj(3)
xn+1j = xnj − 1
Dln
∑i∈Sn
aijyi
∑i∈Sn
aij yi
(4)
yi = bie−∑
k
aikxnk
The analytical reconstructions that were used as referencereconstruction, were reconstructed using the COBRA (ExximComputing Corporation, Pleasanton, Ca, USA) software pack-age, which implements a Feldkamp-type[6] analytical recon-struction algorithm for cone-beam geometries.
C. Phantoms
In order to be able to quantify the differences between thealgorithms, three phantoms were used. The first phantom isthe water phantom, consisting of a cylinder uniformly filledwith water, and is used to determine the noise propertiesof the algorithms. The second phantom we used was a lowcontrast phantom (QRM GmbH, Moehrendorf, Germany). Itis a cylindrical phantom with cylindrical inserts, which haveattenuation values that are 40 and 80 HU lower than theirsurroundings. It is used to determine the contrast resolutionof the different algorithms. The last phantom was a wirephantom (QRM GmbH, Moehrendorf, Germany). It is anairfilled, cylindrical phantom with two tungsten wires with10µm diameter, aligned parallel to the axial axis. One wire islocated in the center of the phantom, the other in the periphery,allowing the evaluation of the spatial resolution both in thecenter of the phantom and at the periphery.
D. Start Images
To evaluate the influence of the starting image, we discernedfour different starting images, of which three can be consideredlow-pass and one high-pass. The first start image is the moststraight-forward one. It is a uniform image, having only onesingle grey value (0 for the additive, 100 for multiplicativealgorithms). The second start image, the high-pass one, con-sists of random grey values (uniformly chosen in [0, 0.1[ forthe additive and in [1, 101[ for the multiplicative algorithms).As a third start image, we used the result of the analyticalreconstruction in an attempt to combine the benefits of bothanalytical and iterative reconstruction. The final start imagerepresents a similar attempt, however, instead of using theresult of an analytical reconstruction, we use the result of afast iterative reconstruction performed at a smaller resolution.
III. RESULTS
A. Noise
A random start image turns out to be a bad choice whennoise resistance is important. Using this start image, signal-to-noise ratios are only 30% of those obtained by using analytical
reconstruction. When using low-pass start images, OS-SARTand OS-MLTR introduce the least noise. Their signal-to-noise ratios are almost twice as high as those of SART, OS-EM and OS-ISRA reconstructions, and slightly higher thanthose of analytical reconstruction. When combined with themultiresolutional start image, OS-MLTR has a signal-to-noiseratio that is more than 50% higher than the signal-to-noiseratio of analytical reconstruction. The results of OS-MLTR incombination with this start image can be explained throughthe convergence speed of OS-MLTR. When determining theoptimal number of subsets, we saw that OS-MLTR convergesmuch slower than the other algorithms. Because of this, therewill be much less noise introduced after a first iteration. Sinceit is the first iteration that is upscaled and used as a start image,this results in a good signal-to-noise ratio.
B. Contrast
The results for optimal contrast are very much alike theresults of noise sensitivity. We didn’t consider the randomstart image when judging contrast, since the signal-to-noiseratios were so low that the cylindrical inserts couldn’t bediscerned on the scans. For the low-pass start images, themultiresolutional start image in combination with OS-MLTRagain produces the best results, with OS-SART as a closesecond. The contrast-to-noise ratio for this combination ismore than twice as high as the contrast-to-noise ratio ofanalytical reconstruction.
C. Spatial Resolution
For the spatial resolution, the starting image has less effecton the different results. Even for the random start image,similar results are obtained as for the other start images. Con-trary to the results for noise and contrast, the algorithms needmore time to achieve their best results for spatial resolution.This is normal, since the algorithms first reconstruct the low-pass part of the image, adding more detail as the number ofiterations rises. OS-ISRA has the highest spatial resolution.After 5 iterations the full width at half maximum (FWHM)of the center wire is about 0.16 mm, which is only slightlyhigher than analytical reconstruction, which has a FWHMof approximately 0.14 mm for the center wire. However,for the wire at the periphery, OS-ISRA has a FWHM ofapproximately 0.16 mm, opposed to 0.21 mm for analyticalreconstruction. OS-SART and OS-MLTR, the algorithms thatscored best at noise sensitivity and contrast resolution, havethe lowest spatial resolution, with a FWHM of 0.23 to 0.25mm for both wires. OS-ISRA however introduced significantlymore noise in its reconstruction than OS-SART, OS-MLTRand analytical reconstruction. So even though their spatialresolution is higher, the reconstructions produced by OS-SART, OS-MLTR and especially analytical reconstruction willbe visually better.
D. Execution Time
The two fastest algorithms of the five we tested, were OS-ISRA and OS-MLTR. Their execution times were several min-utes faster than those of the other algorithms, when iterating
3
for maximal noise resistance and contrast. The execution timesare however still a lot higher than those of analytical recon-struction – typically twice as high – but they aren’t unfeasibleanymore. The largest contributing factor to the execution timeis the backprojection step in the algorithms, taking up almost85% of the execution times. The implementations of bothOS-ISRA and OS-MLTR also have some more room for im-provement, since each iteration has two backprojections – thedirect consequence of doing the calculations in image space.Because we divided the projections in subsets, each subsethas to be backprojected. If more memory is available, or lessprojections are used, the backprojections can be precalculated,further reducing the execution times.
IV. CONCLUSION
We have been able to show that, especially for noiseand contrast, superior results can be obtained by iterativereconstruction, compared to analytical construction. Executingthe algorithms on GPU is still slower than analytical recon-struction, but the execution times are no longer unfeasiblyhigh. It can thus be concluded that, in the years to come, iter-ative reconstruction will be a viable alternative for analyticalreconstruction in pre-clinical practice.
REFERENCES
[1] A. H. Andersen and A. C. Kak, “Simultaneous algebraic reconstructiontechnique (SART): a superior implementation of the art algorithm,”Ultrasonic Imaging, vol. 6, no. 1, pp. 81–94, 1984.
[2] G. Wang and M. Jiang, “Ordered-Subset Simultaneous Algebraic Re-construction Techniques (OS-SART),” Journal of X-Ray Science andTechnology, vol. 12, no. 3, pp. 167–177, 2004.
[3] M. Hudson and R. Larkin, “Accelerated Image Reconstruction usingOrdered Subsets of Projection Data,” IEEE Trans. Med. Imag, vol. 13,pp. 601–609, 1994.
[4] M. E. Daube-Witherspoon and G. Muehllehner, “An Iterative ImageSpace Reconstruction Algorthm Suitable for Volume ECT,” IEEE Trans.Med. Imag, vol. 5, pp. 61–66, june 1986.
[5] J. Nuyts, B. De Man, P. Dupont, M. Defrise, P. Suetens, and L. Mortel-mans, “Iterative reconstruction for helical CT: a simulation study,”Physics in Medicine and Biology, vol. 43, no. 4, pp. 729–737, 1998.
[6] L. A. Feldkamp, L. C. Davis, and J. W. Kress, “Practical cone-beamalgorithm,” J. Opt. Soc. Am. A, vol. 1, pp. 612–619, June 1984.
Lijst van symbolen en afkortingen
ART Algebraic Reconstruction Technique
CNR Contrast-to-Noise Ratio
CT Computed Tomography
CUDA Compute Unified Device Architecture
EM Expectation Maximisation
FBP Filtered Backprojection
FWHM Full Width at Half Maximum
GPU Graphical Processing Unit
GPGPU General Purpose Graphical Processing Unit
HU Hounsfield Unit
ISRA Image Space Reconstruction Algorithm
ML-EM Maximum Likelihood Expectation Maximisation
MLTR Maximum Likelihood algorithm for Transmission tomography
NRMSE Normalised Root Mean Square Error
OS-EM Ordered Subset Expectation Maximisation
OS-SART Ordered Subset Simultaneous Algebraic Reconstruction Technique
PET Positron Emission Tomography
PSF Point Spread Function
SART Simultaneous Algebraic Reconstruction Technique
SNR Signal-to-Noise Ratio
SPECT Single Photon Emission Computed Tomography
x
Inhoudsopgave
Voorwoord v
Overzicht vi
Extended Abstract vii
Lijst van symbolen en afkortingen x
Inhoudsopgave xi
1 Inleiding 1
1.1 CT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Achtergrond . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Acquisitie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 CT-beeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Micro-CT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Reconstructie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Analytische Reconstructie . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Iteratieve Reconstructie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Doel van thesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Methodieken 12
2.1 Opstelling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Algoritmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1 OS-SART en SART . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 OS-EM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 OS-ISRA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.4 OS-MLTR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Fantomen en metrieken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Ruis en Contrast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.2 Resolutie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Invloed van het startbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Monte Carlo Simulatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
xi
Inhoudsopgave xii
3 Resultaten 23
3.1 Convergentie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Ruisgevoeligheid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Contrast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Resolutie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Snelheid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.1 Vergelijking van de uitvoeringstijden . . . . . . . . . . . . . . . . . . . . . 47
3.5.2 Analyse van de uitvoeringstijden . . . . . . . . . . . . . . . . . . . . . . . 47
4 Conclusie 52
4.1 Bespreking van de algoritmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2 Eindbeschouwing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Bibliografie 55
Hoofdstuk 1
Inleiding
1.1 CT
CT – Computed Tomography – is een veelgebruikte niet-invasieve techniek in de medische beeld-
vorming. Deze wordt gebruikt voor het genereren van 3D beelden van de binnenkant van een
object. De techniek maakt gebruik van tomografie om, op basis van een groot aantal traditionele
rontgenfoto’s onder verschillende hoeken, een reeks axiale doorsneden van het object te creeren.
1.1.1 Achtergrond
De basis voor CT werd voor het eerst gelegd door Johann Radon in 1917 [1][2], toen hij bewees
dat het, gegeven genoeg lijnintegralen doorheen een oppervlak, mogelijk is om de verdeling van
deze waarden over datzelfde oppervlak te berekenen. De bevindingen van Radon werden echter
niet meteen opgepikt voor medische toepassingen. Het duurde tot de jaren 60 van vorige eeuw
voordat hierin verandering kwam. Aangezien traditionele radiografie inherent slechts beperkte
informatie kan weergeven, werd gezocht naar nieuwe alternatieven. Een rontgenfoto is immers
een superpositie van alle weefsels waar de x-stralen doorheen zijn gegaan, en dus is het zeer
moeilijk om diepte-informatie te verkrijgen. In de jaren 60 kwam men tot de conclusie dat
een rontgenfoto in principe zeer goed te vergelijken valt met een set lijnintegralen doorheen het
object. Het moest dus mogelijk zijn om met behulp van voldoende foto’s een accuraat beeld
te krijgen van de binnenkant van een object. Het duurde tenslotte nog tot de jaren 70 – en de
opkomst van de eerste relatief compacte computers – vooraleer een praktische implementatie
ontwikkeld werd door Hounsfield.
1.1.2 Acquisitie
CT maakt gebruik van rontgenfoto’s voor het afbeelden van de binnenkant van een object. Het
proces waarbij op basis van deze rontgenfoto’s een 3D beeld wordt gemaakt, heet reconstructie
(zie 1.3). Vooraleer met reconstructie kan begonnen worden, zijn er dus eerst rontgenfoto’s no-
dig. Rontgenstralen hebben de eigenschap dat ze, wanneer ze door een object gaan, geabsorbeerd
worden. Dit fenomeen wordt attenuatie genoemd. De mate waarin de rontgenstraal geattenu-
eerd wordt, hangt af van de attenuatiecoefficient en de dikte van het object waar ze doorheen
gaat. Als I0 de intensiteit is van de uitgezonden rontgenstraal, µ de attenuatiecoefficient en d
1
Hoofdstuk 1. Inleiding 2
de lengte van het pad van de straal doorheen het object, dan wordt de uiteindelijke intensiteit
I gegeven door 1.1. Wanneer het een heterogeen object betreft, kan deze formule eenvoudig
uitgebreid worden naar 1.2 wanneer de overgang tussen de verschillende materialen discreet is,
of naar 1.3 wanneer de overgang tussen de materialen continu is.
I = I0e−µd (1.1)
I = I0e−
∑iµidi
(1.2)
I = I0e−
∫L
µ(r)ds
(1.3)
De mate waarin de fotonen in de rontgenstraling geabsorbeerd worden door het weefsel, hangt
echter ook af van hun energie. Dit betekent dat formule 1.3, die enkel rekening houdt met de
positie r(x,y,z), nog aangepast moet worden om dit effect in rekening te brengen. Formule 1.4
geeft de correcte uitdrukking, waarbij eveneens rekening gehouden wordt met het energiespec-
trum. Deze formule wordt ook de wet van Beer-Lambert genoemd[3][4]. Wanneer geen rekening
gehouden wordt met het energiespectrum van de rontgenstralen, kunnen artefacten in het beeld
optreden.
Fotonen met een lage energie worden veel sneller geabsorbeerd door weefsel dan fotonen met
hoge energie[5][6], een effect dat beam-hardening wordt genoemd1. Dit vertaalt zich in een
beeld dat in het midden donkerder zal zijn dan aan de zijkanten. Het is dus belangrijk om de
rontgenstralen op voorhand reeds te filteren, zodat enkel de rontgenstralen met hogere energie
door het weefsel gaan. Alle lage-energie rontgenstralen die uitgestuurd en volledig geabsorbeerd
worden, leveren immers geen enkele informatie op voor de beeldvorming, maar zorgen er echter
wel voor dat de patient nodeloos een hogere dosis straling binnenkrijgt.
I =
∫I0(E)e
−∫L
µ(E,r)ds
dE (1.4)
Om een zinvolle reconstructie te kunnen uitvoeren, zijn er vele projecties nodig vanuit ver-
schillende hoeken. Doorgaans worden de stralingsbron en de detector aan weerszijden van een
roterende gantry gemonteerd, met het te scannen object in het middelpunt. Op die manier kan
het te scannen object – bv. een patient – stationair blijven, terwijl de bron en de detector er
omheen draaien.
Figuur 1.1 geeft een schematische voorstelling van een mogelijke opstelling, waarbij per rotatie
van de bron en detector, een enkele slice gescand wordt. Deze figuur is een voorbeeld van een
fan-beam systeem; de rontgenstralen hebben een waaiervorm en de detector is slechts 1 pixel
breed. In de x- en y-richting valt het object volledig binnen de stralenbundel, dus er is enkel
een axiale translatie nodig om een volledig object te kunnen scannen. Hierbij kan er ofwel een
1Een rontgenstraal met breed energiespectrum wordt uitgestuurd, maar enkel het hoog-energiegedeelte wordt
gedetecteerd; de straal is ‘harder’ geworden.
Hoofdstuk 1. Inleiding 3
continue ofwel sequentiele translatie gebruikt worden. Bij de eerste zal de bron een spiraalvormig
pad vormen rond het object, bij de tweede is er telkens een afwisseling van een volledige rotatie
en een kleine translatie.
Figuur 1.1: Schematische voorstelling van een CT-scanner
Een tweede soort systeem – hetwelke in dit werk gehanteerd zal worden – is een cone-beam
scanner. Hierbij heeft de bundel rontgenstralen de vorm van een kegel en is de detector een
vlakke rechthoek – hetgeen dus betekent dat slechts een piramidevormig gebied gedetecteerd
wordt. Door deze geometrie zal een groter deel van het object per rotatie gescand kunnen
worden, waardoor er minder rotaties nodig zijn. Bij micro-CT zal het volledige object zelfs
binnen de stralenbundel vallen, waardoor slechts een rotatie nodig is om het volledige object te
kunnen reconstrueren. Door gebruik te maken van een cone-beam wordt het reconstrueren wel
moeilijker, aangezien er nu 3D reconstructie nodig is, waar het bij fan-beam systemen voldoende
was om 2D reconstructies te doen.
1.1.3 CT-beeld
Een CT-beeld bestaat uit een hele reeks 2D beelden, die elk een axiale doorsnede van het
gescande object voorstellen. Aangezien elk van deze doorsneden een bepaalde dikte heeft, zullen
de pixels in deze 2D beelden in principe kleine volume-elementjes voorstellen. Omwille hiervan
wordt bij CT-beelden nooit de term pixel gebruikt, maar veeleer de term voxel – volume element.
Elke voxelwaarde is een maat voor de attenuatie van het volume-element dat de voxel voorstelt.
Aangezien de gemeten waarden echter ook afhankelijk zijn van de energie van de rontgenstralen,
zullen de voxelwaarden slechts een relatieve maat zijn voor de attenuatie. De voxelwaarden
voor een bepaald soort materiaal kunnen dus varieren over verschillende scans. Het is echter
wel zo dat de onderlinge verhoudingen van de voxelwaarden van verschillende materialen binnen
een scan dezelfde zullen zijn in andere scans. Het is dus mogelijk om de voxelwaarden te
normaliseren, zodat een kwantitatieve vergelijking van scans mogelijk is. Om voxelwaarden te
Hoofdstuk 1. Inleiding 4
normaliseren wordt gebruik gemaakt van formule 1.5. Deze formule toont hoe voxelwaarden
kunnen omgezet worden naar Hounsfield Units (HU). De Hounsfield schaal – genoemd naar Sir
Godfrey Newbold Hounsfield1 – neemt de attenuatiecoefficient van water als het referentiepunt
ten opzichte waarvan de voxelwaarden geschaald worden. Volgens deze formule zal water dus
een voxelwaarde van 0 krijgen. Aangezien de attenuatiecoefficient van water gebruikt wordt als
callibratiepunt, zal het dus nodig zijn om een waterfantoom te scannen, teneinde de voxelwaarden
van andere scans te kunnen schalen.
HU = 1000 ∗ µ(x, y, z)− µwaterµwater
(1.5)
1.2 Micro-CT
Terwijl CT beeldvorming al verscheidene decennia een veelgebruikte beeldvormingstechniek is,
heeft het toch relatief lang geduurd vooraleer deze ook ingang vond in laboratoriumomstandig-
heden en pre-klinische tests. De belangrijkste reden hiervoor is de beperkte spatiale resolutie
van een CT-scanner. In pre-klinische omstandigheden zijn knaagdieren nog steeds de de facto
standaard waar het het testen van geneesmiddelen en therapieen betreft. De grootte van een
voxel in een klinische CT scanner ligt ergens rond de 0.35 mm3, hetgeen voldoende detail weer-
geeft wanneer het om mensen gaat. Wanneer echter wordt overgegaan op knaagdieren, komt
deze 0.35 mm3 anatomisch gezien overeen met een voxelgrootte van ongeveer 17 µm3[7]. Hieruit
ontstond dus de nood voor micro-CT; CT-scanners met een spatiale resolutie die veel hoger ligt
dan deze die normaal bereikt kan worden met klinische CT scanners.
Er gingen verscheidene uitdagingen gepaard met het ontwerpen van de eerste micro-CT scanners.
Het is bijvoorbeeld veel moeilijker om een roterende gantry te stabiliseren voor een micro-
CT scanner, dan voor een klinische CT scanner, aangezien de schaal veel kleiner is[8]. De
eerste systemen die ontwikkeld werden waren dan ook de micro-CT scanners waarbij de bron en
detector stationair kunnen blijven. Dit heeft uiteraard als gevolg dat het specimen moet roteren.
Aangezien dit praktische problemen geeft voor in vivo micro-CT – waarbij het specimen nog in
leven is2 – worden dit soort systemen voornamelijk gebruikt bij in vitro beeldvorming. Pas later
werden dan de eerste systemen geıntroduceerd waarbij het specimen stationair kon blijven en
de rontgenbron en detector roteren. Dit zijn dan effectief schaalmodellen van de klinische CT
scanners.
Verder zal ook de ruis een groot probleem vormen bij microCT. Formule 1.6 3 geeft de vari-
antie van de lineaire attenuatie coefficient – en dus een maat voor de ruis – in functie van een
aantal parameters. σ2sys is een term die staat voor alle ruis die geproduceerd wordt door foton-
onafhankelijke bronnen4. Verder staat ∆x voor de voxelgrootte in de reconstructie afbeelding,
nang voor het aantal projecties dat gebruikt wordt om deze afbeelding te bekomen en N voor het
1Als eerbetoon voor het maken van de eerste praktische CT-scanner.2Door een levend specimen te laten roteren wordt de beeldvorming beınvloed; ingewanden zullen zich verplaat-
sen tijdens het roteren, waardoor artefacten zullen ontstaan.3Formule overgenomen uit [9]4e.g. ruis die geıntroduceerd wordt door de detector
Hoofdstuk 1. Inleiding 5
aantal fotonen per geprojecteerde lijnintegraal. Ruis is dus omgekeerd evenredig met de voxel-
grootte, hetgeen betekent dat de grotere spatiale resolutie van microCT extra ruis introduceert
ten opzichte van klinische CT. Het aantal voxels, L in formule 1.7, is dan weer evenredig met
de ruis. Meer voxels zullen dus ook meer ruis introduceren. Voorts staat ook N in de noemer
van formule 1.6, met andere woorden, hoe minder fotonen ontvangen worden, hoe meer ruis de
gereconstrueerde afbeelding zal bevatten. Het aantal fotonen dat ontvangen wordt, is, zoals for-
mule 1.7 aangeeft, afhankelijk van een aantal parameters. Enerszijds is er het aantal fotonen dat
vertrekt uit de bron. Dit wordt bepaald door de hoeveelheid fotonen geproduceerd per eenheid
van stroomsterkte (φ), de stroomsterkte van de bron (I) en de duur van de blootstelling (∆t).
Hoe meer fotonen vertrekken vanuit de bron, hoe meer er ook kunnen aankomen. Voorts speelt
ook de grootte (W en H), het aantal (n) en de efficientie (η) van de detector-elementen een rol.
Grotere detector-elementen kunnen meer fotonen ontvangen en deze zullen dan ook minder ruis
introduceren. Bij microCT zijn de detector-elementen echter een heel stuk kleiner dan bij CT
het geval is, aangezien op een kleinere schaal gewerkt wordt. Dit zal er dus opnieuw voor zorgen
dat microCT beelden ruiziger zijn dan CT beelden.
σ2µ =π2
12∆x2nangN+ σ2sys (1.6)
N =φI∆tnWHηe−µd
L(1.7)
Tenslotte zorgt ook de dosis rontgenstraling die gebruikt kan worden voor in vivo acquisitie
voor problemen. De hoeveelheid straling die een mens kan verdragen zonder negatieve effecten
te ondervinden, is vele malen groter dan deze die de proefdieren die in pre-klinische testen
gebruikt worden kunnen verdragen. In het bijzonder wanneer het over studies gaat waarbij
eenzelfde dier vele malen gescand dient te worden, moet de dosis zeer laag gehouden worden[9].
De dosis laag houden betekent de energie van de fotonen verhogen, waardoor er minder fotonen
geabsorbeerd zullen worden. Dit zal er eveneens voor zorgen dat er meer fotonen gedetecteerd
zullen worden (e−µd in 1.7) en er dus minder ruis aanwezig zal zijn. Wanneer er echter minder
fotonen geabsorbeerd worden, zal de beeldvorming verstoord worden. Het is immers net de
absorptie van fotonen die voor een beeld zorgt. Er zal dus nauwkeurig een dosis gekozen moeten
worden die te verdragen is door de proefdieren, maar toch nog een kwalitatief beeld geeft.
1.3 Reconstructie
Het omzetten van projecties naar de eigenlijke 3D beelden kan op verschillende manieren ge-
beuren. Deze reconstructietechnieken kunnen in twee grote categorieen onderverdeeld worden,
afhankelijk van de manier waarop de reconstructie gedaan wordt. Enerzijds zijn er de analyti-
sche reconstructietechnieken, die traditioneel het meest gebruikt worden voor het reconstrueren
van CT-beelden en anderzijds zijn er de iteratieve technieken, die vooral bij SPECT en PET
gangbaar zijn, maar de laatste jaren ook hun opmars maken bij de reconstructie van CT-beelden.
In wat volgt zullen beide categorieen aan bod komen, met elk hun voor en nadelen.
Hoofdstuk 1. Inleiding 6
1.3.1 Analytische Reconstructie
Principe1
Zoals in 1.1.1 reeds kort vermeld werd, kan de waarde die een detector meet wanneer er een
rontgenstraal op invalt, vergeleken worden met het nemen van een lijnintegraal over de attenu-
atiewaarden langs het pad van deze rontgenstraal. Radon bewees reeds in 1917[1] dat het op
basis van voldoende lijnintegralen onder verschillende hoeken, het mogelijk is om het geprojec-
teerde object te reconstrueren. Hoe dit in zijn werk gaat kan het eenvoudigst begrepen worden
wanneer overgegaan wordt op een systeem waarbij de acquisitie gebeurt via een reeks parallelle
rontgenstralen die door een 2D object gaan. Een projectie van een CT-scanner onder de projec-
tiehoek θ kan dan vergeleken worden met het nemen van een reeks lijnintegralen over het object,
vooropgesteld dat er een kleine aanpassing wordt gedaan aan de projectiedata. Formule 1.4 in
1.1.2 gaf de uitdrukking voor de gemeten intensiteiten. Door abstractie te maken van de energie-
afhankelijkheid, kan deze uitdrukking omgevormd worden tot 1.8, hetgeen een lijnintegraal over
de attenuatiecoefficienten voorstelt.
ln
(I
I0
)=
∫
L
µ(r)ds (1.8)
x cosθ + y sinθ = t (1.9)
pθ(t) =
∫ ∫f(x, y) δ(x cosθ + y sinθ − t)dx dy (1.10)
Laat 1.9 de formule zijn voor een lijn onder een hoek θ door het punt (0, t), dan zal de Radon
transformatie van het object waarvan de attenuatiewaarden verdeeld zijn volgens f(x, y) gegeven
worden door 1.10. Het doel van analytische reconstructie is om op basis van deze projecties pθ(t)
het geprojecteerde object te reconstrueren. De eenvoudigste manier om van deze projecties terug
te gaan naar het geprojecteerde beeld, is door de projectieoperatie te inverteren. Formule 1.11
toont zo een backprojectie, waarbij de projectiewaarden uniform uitgesmeerd worden langs het
pad van de lijnintegraal. Door dit te doen voor alle projecties – zoals in 1.12 – kan dan een
gereconstrueerd beeld bekomen worden. Bemerk ook dat de grenzen van de integraal slechts
lopen van 0 tot π. Dit betekent dus dat het voldoende is om over een hoek van 180◦ projecties
te nemen om een volledig beeld te bekomen.
bθ(x, y) =
∞∫
−∞
pθ(t) δ(x cosθ + y sinθ − t)dt (1.11)
fb(x, y) =
π∫
0
bθ(x, y)dθ (1.12)
De backprojectie in 1.12 heeft echter een groot probleem. Aangezien er geen a priori informatie is
over de te reconstrueren afbeelding, werd ervoor gekozen om de projecties uniform uit te smeren
1Op basis van [10]
Hoofdstuk 1. Inleiding 7
over de projectielijn. Dit zorgt er weliswaar voor dat een punt met een hoge attenuatiewaarde
ook effectief een hoge voxelwaarde zal krijgen, maar dit zorgt er ook voor dat, juist door het
uitsmeren, de omgeving van dit punt ook een hogere waarde zal krijgen. Figuur 1.2 toont dit
fenomeen wanneer een puntbron eerst geprojecteerd en vervolgens teruggeprojecteerd wordt. Het
rechter gedeelte van de figuur illustreert het resultaat dat idealiter bekomen zou moeten worden
na de reconstructie; een wit punt met een scherpe aflijning ten opzichte van zijn omgeving.
Hetgeen echter bekomen wordt na een backprojectie is het linker deel van de figuur; een wit punt
dat uitgesmeerd is over zijn omgeving. Het spreekt voor zich dat hoe meer projecties gebruikt
zullen worden, hoe minder opvallend dit uitsmeren zal zijn. Een groot aantal projecties gebruiken
zal echter geen perfecte oplossing zijn, aangezien er steeds een wazige rand zal overblijven.
Figuur 1.2: Het verschil tussen het bekomen en het gewenste resultaat voor backprojectie
Een betere oplossing kan gevonden worden door figuur 1.2 nogmaals te bekijken. Het linker deel
stelt het resultaat voor van het projecteren en terugprojecteren van een puntbron. Dit deel van
de figuur kan dus beschouwd worden als het impulsantwoord van het systeem. Er kan aangetoond
worden dat dit impulsantwoord gegeven wordt door 1r , waardoor de backprojectie kan beschouwd
worden als het originele beeld geconvolueerd met dit impulsantwoord. De meest voor de hand
liggende oplossing is dan om de backprojectie te gaan Fourier-transformeren om deze factor te
verwijderen. Een 2D Fourier-transformatie is echter enorm traag, daar waar de backprojectie
zeer snel is. Het centrale sectie theorema stelt echter dat de 1D Fourier-transformatie van
de projectie van een 2D functie, equivalent is met de lijn die onder de projectiehoek door
het centrum van de 2D Fourier-transformatie van deze 2D functie gaat. Anders gezegd, een
trage 2D Fourier-transformatie kan omzeild worden door een snelle 1D Fourier-transformatie
van de projecties. Met 1.13 en 1.14 als de Fourier-transformatie en diens inverse, kan dus een
gefilterde vorm van de backprojectie1 opgesteld worden. Formule 1.15 toont hoe in FBP elke
projectie gecorrigeerd kan worden met een ramp filter – het Fourier-spectrum equivalent van het
impulsantwoord – alvorens de backprojectie uit te voeren. Deze correctie zal negatieve waarden
1FBP oftewel Filtered Backprojection
Hoofdstuk 1. Inleiding 8
introduceren, die er dan voor zullen zorgen dat het uitsmeren verdwijnt.
F1(pθ(t) =
∫pθ(t) e
−j2πρtdt (1.13)
pθ(t) =
∫F1(pθ(t)) e
j2πρtdρ (1.14)
f(x, y) =
π∫
0
∞∫
−∞
F1(pθ(t)) ej2πρt |ρ|dρ
δ(x cosθ + y sinθ − t)dθ (1.15)
Zoals al eerder werd vermeld, zal in dit werk echter gebruik gemaakt worden van een cone-beam
scanner. Formule 1.15 zal dus niet in deze vorm gebruikt worden, al zal hetzelfde principe
wel blijven gelden. In plaats van 1.15 zal het FDK [11] algoritme voor cone-beam geometrieen
gebruikt worden, in combinatie met Parker Weighting[12].
Nadelen
Filtered Backprojectie mag dan al zeer snel zijn – de voornaamste reden voor zijn populariteit
– het heeft echter ook een aantal nadelen. Allereerst veronderstelt FBP exacte projectiedata.
Dit is echter een utopie, aangezien er uit 1.6 al bleek dat er redelijk wat ruis op de gemeten
data kan zitten. Voorts zal het filteren van de projectiedata met een ramp filter enkel werken
wanneer er een voldoende groot aantal projecties zal zijn. Indien dit niet het geval is, zullen er
streepartefacten ontstaan. Tot slot is het ook volkomen onmogelijk om enige a-priori informatie
over de ruis of over het te reconstrueren beeld te incorporeren in de reconstructie, hetgeen wel
perfect mogelijk zal zijn bij iteratieve reconstructie.
1.3.2 Iteratieve Reconstructie
Principe
Iteratieve reconstructie start vanuit een andere premisse dan analytische reconstructie. In plaats
van uit te gaan van een Radon model, wordt bij iteratieve reconstructie gekozen voor een alge-
mener lineair model. Op deze manier wordt het mogelijk om meer informatie over het acquisitie-
proces en de aard van het beeld te incorporeren in de reconstructie [13]. Dit heeft uiteraard als
gevolg dat het beeld dat bekomen wordt door iteratieve reconstructie een stuk nauwkeuriger zal
zijn dan datgene dat bekomen wordt door analytische reconstructie. Door een betere modellering
van de ruis zal deze bijvoorbeeld een stuk minder aanwezig zijn bij iteratieve reconstructies.
Iteratieve reconstructie algoritmes benaderen het probleem van de reconstructie steeds op de-
zelfde manier.
Gegeven een set gemeten projectiewaarden en extra informatie over de metingen, de
afbeelding en het gescande object, zoek de distributie van de attenuatiewaarden in
het object.
Dit komt overeen met een algemeen lineair inverse probleem. Uiteraard is het in het geval
van CT niet praktisch om in het continue domein te werken, dus wordt er in het discrete
domein gewerkt. De structuur van iteratieve algoritmes is over het algemeen vrij gelijkaardig,
Hoofdstuk 1. Inleiding 9
Figuur 1.3: Iteratieve reconstructie
op een paar kleine variaties na. Er zijn steeds vier duidelijke stappen te onderscheiden in elke
iteratie: een projectie, het berekenen van de fout, een terugprojectie en een update van de
reconstructie. Een algemeen schema is gegeven in Figuur 1.3. Er wordt gestart van een zeker
startbeeld1, hetgeen geprojecteerd wordt om een reeks projecties te bekomen. Deze projecties
worden dan vergeleken met de projecties die bekomen zijn via metingen. De fout die hieruit
bekomen wordt, wordt teruggeprojecteerd naar de afbeeldingsruimte, om vervolgens gebruikt te
worden in de update van het startbeeld. Dit nieuwe beeld wordt daarna gebruikt als startbeeld
van de volgende iteratie. Op deze manier zal het beeld stap voor stap dichter bij de oplossing
van het reconstructie-probleem komen. De exacte vorm van het schema in Figuur 1.3 hangt
voornamelijk af van de optimalisatiefunctie. Afhankelijk van de functie die bepaalt hoe dicht
een bepaald beeld komt bij het beoogde resultaat, zal het schema een andere implementatie
krijgen.
Iteratieve reconstructietechnieken werden tot nu toe voornamelijk gebruikt bij nucleaire beeld-
vormingstechnieken, zoals PET2 en SPECT3. Bij deze beeldvormingstechnieken is een Radon-
model een slechte benadering van de acquisitie, waardoor analytische reconstructie zeer moeilijk
is. Iteratieve reconstructietechnieken geven veruit de beste resultaten waardoor deze dan ook
al vele jaren in gebruik zijn. Het voordeel is dat de algoritmes die in PET en SPECT gebruikt
worden voor iteratieve reconstructie, op een paar wijzigingen na, ook gebruikt kunnen worden
voor CT reconstructie. Veel van de algoritmes die gebruikt worden voor iteratieve reconstructie
bij CT zijn dus al vele jaren in gebruik bij iteratieve reconstructie voor PET en SPECT.
Limitaties
De keuze tussen iteratieve en analytische reconstructie is er voornamelijk een tussen nauwkeu-
righeid en efficientie. Iteratieve reconstructie zal een nauwkeuriger beeld geven dan analytische
reconstructie, aangezien de werkelijkheid nauwkeuriger gemodelleerd kan worden. Aan de andere
1Meer informatie hieromtrent in 2.42Positron Emission Tomography3Single-Photon Emission Computed Tomography
Hoofdstuk 1. Inleiding 10
kant zal iteratieve reconstructie een stuk langer duren dan analytische. Dit is eenvoudig te zien
in Figuur 1.3. Waar bij analytische reconstructie enkel een terugwaartse projectie uitgevoerd
moet worden, moet bij iteratieve reconstructie bij elke iteratie zowel een voorwaartse als een
terugwaartse projectie uitgevoerd worden. Dit zorgt er uiteraard voor dat de uitvoeringstijden
bij iteratieve reconstructie een tot meerdere grootteorden hoger liggen dan bij analytische re-
constructie. Rekentijden die uren tot dagen aanslepen zijn niet ongewoon, en het behoeft weinig
illustratie dat dit een van de redenen is waarom het gebruik van iteratieve reconstructietechnie-
ken vooral beperkt blijft tot laboratorium-omstandigheden.
Een tweede beperking van iteratieve reconstructie is de hoeveelheid geheugen die nodig is voor
de reconstructie. Tabellen 1.1 en 1.2 geven een indicatie van de hoeveelheid geheugen die nodig
is om de projecties en de reconstructie bij te houden. Terwijl de grootte van de afbeelding
enigszins beperkt blijft, loopt de benodigde hoeveelheid geheugen voor de projecties al snel op
tot enkele gigabytes. Deze hoeveelheid wordt nog eens verdubbeld wanneer de fout met de
gemeten projecties berekend wordt, aangezien dan zowel de berekende als de gemeten projecties
in het geheugen moeten gehouden worden. Dit is nog een reden waarom iteratieve reconstructie
– tot voor enkele jaren – nooit echt ingang vond bij CT. Het is pas sinds eind twintigste,
begin eenentwintigste eeuw dat computers over voldoende werkgeheugen beschikken om deze
hoeveelheden data te kunnen bevatten.
#projecties 256 512 1024
Grootte (GiB) 1.26 2.53 5.06
Tabel 1.1: Benodigd geheugen voor pro-
jecties
#pixels 2563 5123
Grootte (MiB) 64 512
Tabel 1.2: Benodigd geheugen voor ge-
reconstrueerd beeld
1.4 Doel van thesis
In dit werk zal gepoogd worden om een oplossing te vinden voor de extreem hoge reconstructie-
tijden die bij iteratieve reconstructie gangbaar zijn. Zoals zal blijken in 2.2 zijn de algoritmes
die gebruikt worden voor iteratieve reconstructie voor een groot deel parallelliseerbaar. Dit
biedt dus een groot potentieel voor het verlagen van de uitvoeringstijd. In de voorbije jaren
werd het steeds interessanter om oplossingsmethoden te parallelliseren met behulp van de GPU1
[14][15]. Deze hardware is specifiek ontworpen om op zeer efficiente manier extreem parallelle
programma’s uit te voeren. Traditioneel zijn deze volledig geoptimaliseerd voor grafische toe-
passingen – vandaar ook de naam – aangezien deze bijna uitsluitend gebruikt werden door de
game-industrie. Meer recent echter zijn de API’s aangepast om meer algemene berekeningen te
kunnen ondersteunen, waardoor de GPU’s zijn geevolueerd naar GPGPU’s2. Onder meer de
NVidia® CUDA� API [16] biedt de mogelijkheid om NVidia’s grafische kaarten te gebruiken
voor meer algemene doeleinden.
1Graphical Processing Unit, de grafische kaart van de PC2General Purpose GPU
Hoofdstuk 1. Inleiding 11
Verderop zullen vijf algoritmes geıntroduceerd worden die in dit werk aan bod zullen komen. Elk
van deze algoritmes zal geımplementeerd worden voor GPU. Op deze manier zullen de extreem
lange uitvoeringstijden, die kenmerkend zijn voor iteratieve reconstructie, vermeden kunnen
worden. De algoritmes zullen onderling vergeleken worden op basis van een aantal metrieken1
en voor elke metriek zal ook telkens de vergelijking gemaakt worden met een beeld dat bekomen
werd via analytische reconstructie. Op deze manier zal het mogelijk zijn om de performantie
van elk algoritme te beoordelen in functie van de omgevingsparameters. Zo zal dan uiteindelijk
blijken of het mogelijk is om via iteratieve reconstructie resultaten te verkrijgen die beter zijn
dan deze bekomen via analytische reconstructie, in vergelijkbare uitvoeringstijden.
1zie hoofdstuk 2
Hoofdstuk 2
Methodieken
2.1 Opstelling
Alle testen werden uitgevoerd op de PC waarvan de specificaties weergegeven worden in tabellen
2.1 en 2.2. Het framework van de algoritmes bouwde voort op het framework dat eerder al
gecreeerd werd door Bert Vandeghinste, geschreven in C++. De algoritmes zelf werden voor
het grootste deel uitgevoerd op de GPU; de code hiervoor werd geschreven in CUDA�.
NVidia®Tesla�M2070-Q
Aantal CUDA�cores 448
Geheugen 6 GiB
Enkele-precisie 1030 GFLOP
Dubbele-precisie 515 GFLOP
API CUDA�
Tabel 2.1: Specificaties van de grafische
kaart
Host
CPU Intel®Xeon®E5620
Kloksnelheid 2.40GHz
#Cores 4 (8 Threads)
Geheugen 16 GiB
OS Fedora 13
Tabel 2.2: Specificaties van
de host PC
Voor het scannen van fantomen werd gebruikt gemaakt van een FLEX Triumph�(Gamma Me-
dica Ideas, Northridge, CA, USA) scanner. Dit is een pre-klinische, tri-modale scanner die over
zowel een micro-CT als een PET en SPECT scanner beschikt. In dit werk werd uiteraard enkel
de CT modaliteit gebruikt. Tenslotte werden de analytische reconstructies uitgevoerd met be-
hulp van het COBRA softwarepakket van Exxim Computing Corporation, dat, zoals eerder al
vermeld werd, een Feldkamp-type reconstructie implementeert.
2.2 Algoritmes
In dit werk zullen vijf algoritmes onderzocht worden: OS-SART, SART, ISRA, MLEM en MLTR.
Door de limitaties die in 1.3.2 en 1.4 aan bod gekomen zijn, zullen er echter enkele aanpassingen
moeten aangebracht worden aan deze algoritmes. Algoritmes zoals ISRA, MLEM en MLTR heb-
ben immers meer geheugen nodig dan er beschikbaar is op de GPU, aangezien zij alle projecties
in het geheugen houden. Deze beperking kan eenvoudig omzeild worden door voor elk van deze
algoritmes een ordered subset[17] versie te maken. Dit houdt in dat de projecties in een aantal
12
Hoofdstuk 2. Methodieken 13
groepen – subsets – opgedeeld worden. Tijdens een iteratie worden vanaf nu alle projecties
per subset doorlopen, waarbij voor elke subset het reconstructieschema van Figuur 1.3 gevolgd
wordt – een soort verdeel en heers strategie dus. Op deze manier moeten er slechts even veel
projecties in het geheugen gehouden worden als er hoeken in de subset zijn. Deze ingreep lijkt
op het eerste zicht de uitvoeringstijd te verhogen, maar wanneer de subsets mutueel exclusief
gekozen zijn, blijft de uitvoeringstijd grofweg dezelfde. Meer nog, het gebruik van subsets zorgt
voor een significante stijging van de convergentiesnelheid, waardoor er minder iteraties nodig
zijn en de uitvoeringstijd drastisch verlaagd wordt.
Een van de enige nadelen van het verdelen in subsets van de projecties, is dat hierdoor de
oplossingsruimte ook in verschillende stukken verdeeld wordt. In elke pass wordt in een andere
oplossingsruimte gezocht, die normaal gezien telkens overlapt met de overige oplossingsruimten.
Wanneer al deze oplossingsruimten exact een gemeenschappelijk gebied hebben, kan op deze
manier uiteraard zeer snel naar een correcte oplossing geconvergeerd worden. In de aanwezigheid
van ruis kan dit echter leiden tot een situatie waarbij er geen gemeenschappelijk stuk meer is,
waardoor de convergentie niet meer gegarandeerd is. Een tweede nadeel van het opdelen in
subsets is dat er sneller ruis geıntroduceerd wordt in de afbeeldingen naarmate de projecties in
meer subsets opgedeeld worden. Het zal dus nog belangrijker worden om het itereren op tijd te
stoppen.
Aangezien de invloed van de manier waarop de projecties verdeeld worden over de verschillende
subsets geen specifiek onderzoeksdoel is van deze thesis, worden deze gewoon sequentieel toege-
wezen aan de verschillende subsets1. Dit is een van de eenvoudigste manieren om de projecties
over de subsets te verdelen. Complexere methoden voor het onderverdelen van projecties in
subsets kunnen onder andere gevonden worden in [17] en [18].
2.2.1 OS-SART en SART
OS-SART[19] en SART[20] – Simultaneous Algebraic Reconstruction Technique – zijn beide
uitbreidingen van het ART algoritme voorgesteld in [21]. Deze categorie algoritmes zien het
reconstructie-probleem als het vinden van een afbeelding die voldoet aan de beperkingen die
opgelegd zijn door de gemeten2 data en de veronderstellingen die gemaakt worden over de
afbeelding en de data.
ART is gebaseerd op de Kaczmarz methode [22] voor het oplossen van stelsels lineaire vergelij-
kingen van de vorm Ax = b. In deze uitdrukking stellen de xi de onbekenden voor waarnaar de
vergelijkingen moeten opgelost worden. A is de coefficientenmatrix waarin de Aij de coefficienten
van de onbekenden zijn in de vergelijkingen. Tot slot stellen de bi de uitkomsten van de vergelij-
kingen voor. De Kaczmarz methode beschouwt elk van de vergelijkingen waaraan de onbekenden
moeten voldoen als een hypervlak. In de afwezigheid van ruis zullen al deze vlakken een uniek
snijpunt hebben, de oplossing van het stelsel. Er wordt gestart vanaf een willekeurig punt in
de oplossingsruimte, dat in een eerste stap geprojecteerd3 wordt op een van de hypervlakken,
1i.e. projectie 1 in subset 1, projectie 2 in subset 2 enz.2Tenzij anders aangegeven gaat dit over de data na correctie!3Projectie in de zin van lineaire algebra!
Hoofdstuk 2. Methodieken 14
gedefinieerd door een van de vergelijkingen. Het punt dat hierdoor bekomen wordt, wordt ver-
volgens geprojecteerd op een van de volgende hypervlakken. Dit proces herhaalt zich totdat
verdere projecties niets meer veranderen aan de positie van het punt.
Figuur 2.1: Illustratie van het ART algoritme
Figuur 2.1 geeft een grafisch voorbeeld van deze methode in een 2D geval. In de figuur is duidelijk
te zien dat de convergentiesnelheid enorm kan varieren afhankelijk van de vergelijkingen; hoe
orthogonaler de vergelijkingen zullen zijn, hoe sneller het algoritme zal convergeren. Voorts is
het belangrijk dat de hypervlakken ook effectief een snijpunt hebben. Als er ruis aanwezig is
in de acquisities, kan het zijn dat de doorsnede van de hypervlakken leeg is. In dit geval zal
het algoritme niet langer kunnen convergeren naar een unieke oplossing, maar blijven oscilleren
in de ruimte afgebakend door de verschillende hypervlakken. Indien de hoeveelheid ruis relatief
beperkt blijft, zal de oplossing die bekomen wordt door het algoritme gewoon stop te zetten
echter dicht genoeg liggen bij de unieke oplossing die in een ruisloos geval zou zijn bekomen.
Het belangrijkste nadeel van deze aanpak is dat het onmogelijk is om een statistisch model van
de data te incorporeren[13].
OS-SART en SART zijn uitbreidingen van ART in de zin dat, waar ART slechts 1 pixel van
een projectie gebruikt bij een update, zij de bijdragen van alle projecties gebruiken. Meer nog,
Hoofdstuk 2. Methodieken 15
OS-SART en SART updaten per iteratie alle voxels in de afbeelding, waar ART dit maar voor 1
voxel per keer doet1. In essentie verschillen OS-SART en SART slechts weinig van elkaar. Het
enige verschil zit in het aantal subsets dat gebruikt wordt bij de reconstructie. SART gebruikt
per definitie slechts 1 projectie per subset, waar dit bij OS-SART kan varieren. Dit maakt SART
dus een bijzonder geval van OS-SART.
Formule 2.1 geeft de algemene expressie voor (OS-)SART. Uit de formule blijkt dat OS-SART
en SART het schema van Figuur 1.3 vrij exact volgen. Het berekenen van de fout gebeurt door
het verschil te nemen van de gemeten projecties (bi) met de voorwaartse projectie van de vorige
iteratie (xnk). Vooraleer deze fout teruggeprojecteerd wordt, wordt ze eerst nog genormaliseerd.
Na de backprojectie is er opnieuw een normalisatie, alvorens de additieve update plaatsvindt.
xn+1j = xnj +
1∑i′∈Sn
ai′j
∑
i∈Sn
aij
bi −∑k
aikxnk
∑k
aik(2.1)
2.2.2 OS-EM
OS-EM[17] – Ordered Subset Expectation Maximisation – is de ordered subset uitbreiding
van het ML-EM2 algoritme[23][24] dat gebaseerd is op het Maximum Likelihood criterium van
Fisher[25]. In tegenstelling tot de op ART gebaseerde algoritmes is ML-EM een statistisch al-
goritme. ML-EM beschouwt de transmissiedata als een realisatie van een Poisson-distributie3,
aangezien Poisson-ruis de dominante bijdrage levert in de ruis van CT-beelden[26]. Het ML-EM
algoritme gaat steeds dat beeld reconstrueren dat statistisch gezien de grootste kans heeft om
tot de gemeten projecties te leiden. Hierbij heeft het de eigenschap dat het een asymptotisch
efficient algoritme is, waardoor het minder vatbaar voor ruis zou moeten zijn. CT beelden zijn
echter inherent vrij ruizig, waardoor het beeld met de grootste kans om de gemeten projecties
te veroorzaken eveneens vrij ruizig zal zijn. Hierdoor is het belangrijk om het itereren op tijd
te stoppen, alvorens het algoritme convergeert naar een te ruizig resultaat.
L (Φ) = ln g(y|Φ) (2.2)
Q(Φ′|Φ
)= E
[ln f(s|Φ′)|y,Φ
](2.3)
Zoals blijkt uit de naam bestaat ML-EM uit twee delen; ML, wat staat voor Maximum Likeli-
hood, en EM, wat staat voor Expectation Maximisation. Wat ML-EM dus concreet wil bereiken,
is het maximaliseren van een aannemelijkheidsfunctie door middel van het maximaliseren van
een overeenstemmende verwachtingswaarde. Formules 2.2 en 2.3 zijn cruciaal om dit te berei-
ken. Er wordt verondersteld dat de projecties, de vector y, de incomplete data vormen, terwijl
gezocht wordt naar de complete data, vector s. De complete data zal zowel de incomplete als
de ontbrekende data, zoals het geprojecteerde object, bevatten. Op basis hiervan kan dan de
1Vandaar ook de benaming Simultaneous ART2Maximum Likelihood Expectation Maximisation3Deze redenering klopt echter niet helemaal, aangezien ML-EM werkt met de gecorrigeerde gemeten projecties.
Hierdoor zal de ruiskarakterisatie bij ML-EM niet helemaal juist zijn. Bij MLTR zal op dit vlak wel de juiste
redenering gemaakt worden.
Hoofdstuk 2. Methodieken 16
log-aannemelijkheidsfunctie L (Φ) opgesteld worden, die een maat geeft voor de aannemelijk-
heid dat een bepaalde set projecties y het resultaat is van de projectie van een object Φ. Door
formule 2.2 te maximaliseren, zal uiteindelijk een set waarden voor Φ bekomen worden, die
het beeld zullen schetsen dat statistisch de grootste kans heeft om tot de gemeten projecties te
komen. Er zijn verschillende mogelijkheden om L te maximaliseren, waarvan EM degene is die
bij ML-EM gebruikt zal worden. EM is een iteratieve methode waarbij elke iteratie gebeurt in
twee stappen. In een eerste stap wordt op basis van formule 2.3 Q(Φ|Φn) berekend, hetgeen
overeenkomt met het berekenen van het gemiddelde1 van de log-aannemelijkheidsfunctie van de
complete data, gegeven de schatting voor het object uit de vorige iteratie. In de tweede stap,
de maximalisatiestap, wordt dit gemiddelde gemaximaliseerd door die waarde voor Φ te zoeken
die Q(Φ|Φn) maximaliseert. Deze waarde wordt dan de Φn+1 die in de volgende iteratie zal
gebruikt worden. Het kan aangetoond worden[23] dat deze procedure L (Φ) in elke iteratie zal
laten toenemen.
OS-EM mag dan wel een veralgemening zijn van het ML-EM algoritme, het is echter geen echt
EM algoritme. Meer nog, convergentie van het OS-EM is nog steeds niet bewezen, al geeft het in
de meeste gevallen wel een gelijkaardig resultaat als ML-EM. Een bijkomend nadeel is, dat het
opdelen in subsets van de projecties zorgt voor extra ruis en ervoor kan zorgen dat het algoritme
begint te oscilleren rond een oplossing[13].
xn+1j =
xnj∑i′∈Sn
ai′j
∑
i∈Sn
aijbi∑
k
aikxnj
(2.4)
Formule 2.4 geeft de algemene expressie voor OS-EM. Ook OS-EM volgt het schema van figuur
1.3 vrij nauwkeurig. De fout wordt hier berekend door de gemeten projecties te delen door
de berekende projecties. In tegenstelling tot 2.1 voor (OS-)SART is er geen normalisatie van
de fout, deze is er wel na diens backprojectie. De update bij OS-EM is multiplicatief, hetgeen
betekent dat OS-EM een inherente positiviteitsbeperking bevat.
2.2.3 OS-ISRA
OS-ISRA is de ordered subset uitbreiding van ISRA[27][28][29] – Image Space Reconstruction
Algorithm. ISRA is eveneens gebaseerd op het ML criterium van Fisher en is daardoor ge-
lijkaardig aan het ML-EM algoritme. Het is ontstaan met de opkomst van PET en SPECT
scanners met een steeds kleinere axiale resolutie. Hierdoor moest overgeschakeld worden op
3D reconstructie en dreigden de datasets te groot te worden. Om dit te omzeilen creeerden
Daube-Witherspoon en Muehllehner ISRA. Het grote verschil tussen ISRA en ML-EM is het
verschillend iteratie-schema. Bij ISRA zijn de ‘Compare’ en ‘Backproject’ stappen omgewisseld,
met andere woorden de fout wordt niet langer in de projectieruimte berekend, maar in de beeld-
ruimte2. Dit heeft als gevolg dat er veel minder bewerkingen uitgevoerd moeten worden om
1Aangezien de complete data niet gekend is – indien dit wel zo was zou het probleem triviaal op te lossen
zijn – kan de log-aannemelijkheidsfunctie zelf niet berekend worden, dus moet genoegen genomen worden met het
gemiddelde ervan, dat wel berekend kan worden.2Vandaar de naam Image Space Reconstruction Algorithm
Hoofdstuk 2. Methodieken 17
de fout te berekenen. De backprojectie van de gemeten projecties kan eenvoudig op voorhand
berekend worden. Deze aanpassing zorgt er echter wel voor dat ISRA geen echt ML algoritme
meer is, ondanks de gelijkenissen. De convergentie is echter wel nog steeds gegarandeerd[29].
Formule 2.5 geeft de algemene uitdrukking voor de ordered subset uitbreiding van ISRA1. Het
is duidelijk dat het net als OS-EM om een multiplicatief algoritme gaat, waardoor het even-
eens een positiviteitsbeperking bevat. In tegenstelling tot OS-SART en OS-EM vindt er echter
geen normalisatie plaats. De afbeelding wordt rechtstreeks geupdatet met de in de beeldruimte
berekende fout.
xn+1j = xnj
∑i∈Sn
aijbi
∑i∈Sn
aij∑k
aikxnj
(2.5)
Door met subsets te werken ontstaat er nog een extra moeilijkheid wat betreft het op voorhand
berekenen van de backprojectie van de gemeten data. In plaats van slechts een enkele backpro-
jectie moet er voor elke subset een backprojectie berekend worden. Hierdoor kan de hoeveelheid
geheugen die nodig is om deze bij te houden zeer snel oplopen naargelang het aantal subsets
stijgt. Het is dus vooral bij kleine subsets voordeliger om deze backprojectie per iteratie te
berekenen.
2.2.4 OS-MLTR
MLTR[30] – Maximum Likelihood algorithm for Transmission tomography – is net als ML-
EM en ISRA gebaseerd op het ML criterium van Fisher. In tegenstelling tot de voorgaande
algoritmes, werkt MLTR echter niet op de gecorrigeerde gemeten data, maar rechtstreeks op de
ruwe gemeten data. Dit zorgt voor een veel nauwkeurigere ruismodellering dan bij ML-EM het
geval is. ML-EM vertrekt immers van de foute veronderstelling dat de logaritme van de data
een realisatie is van een Poisson-distributie, terwijl dit niet het geval is. Het is immers de ruwe
gemeten data die Poisson gedistribueerd is.
Uitbreidingen van MLTR blijken bijzonder goed te zijn in het verwijderen van beam-hardening2
artefacten en artefacten ten gevolge van metalen implantaten[32][33]. Het verbeterde acquisitie-
model van MLTR blijkt dus zeer beloftevol te zijn[32].
yi = bie−
∑kaikx
nk
xn+1j = xnj −
1
Dln
∑i∈Sn
aijyi
∑i∈Sn
aij yi
(2.6)
Formule 2.6 geeft de algemene uitdrukking voor de ordered subset uitbreiding van MLTR3. Deze
formule is enigszins verschillend van deze gebruikt in [30], [32] en [33], maar is wel volkomen
1Vanaf hier zal ISRA verwijzen naar de ordered subset uitbreiding, tenzij anders aangegeven.2Wanneer rontgenstralen doorheen een object gaan, worden stralen met lagere energie gemakkelijker geabsor-
beerd, waardoor de straling achter het object gemiddeld een hogere energie heeft. Dit kan leiden tot artefacten
in de reconstructie.[31]3Vanaf hier zal MLTR verwijzen naar de ordered subset uitbreiding, tenzij anders aangegeven.
Hoofdstuk 2. Methodieken 18
equivalent. MLTR in de vorm van 2.6 reduceert echter het aantal projecties en backprojecties
die per iteratie gemaakt moeten worden. Dit zorgt voor een snellere uitvoering en is daarom te
verkiezen boven de andere formuleringen. In 2.6 stelt yi de ruwe gemeten projectiedata voor, yi
de berekende projecties en bi de gemeten waarde zonder object. D is een normalisatiefactor.
2.3 Fantomen en metrieken
Om een performantieanalyse te kunnen uitvoeren zoals beschreven in 1.4 zijn er verschillende
metrieken en fantomen nodig. In dit werk werden een drietal fantomen gebruikt om een aantal
eigenschappen zoals ruisgevoeligheid, contrast en spatiale resolutie te kunnen opmeten. Van elk
fantoom werden 1024 projecties gemaakt voor reconstructie. In wat volgt zullen elk van deze
fantomen besproken worden met voor elk fantoom de metrieken waarop het betrekking heeft.
2.3.1 Ruis en Contrast
Voor het bepalen van de ruisgevoeligheid van de verschillende algoritmes werd een waterfantoom
gebruikt. Dit fantoom bestaat uit een cilinder die uniform gevuld wordt met water. Op deze
manier kan er een scan gemaakt worden van een volkomen homogeen ‘object’. Bij een volledig
ruisloze acquisitie, zou bij reconstructie het watervolume in theorie overal een constante waarde
moeten hebben. Wanneer er echter ruis aanwezig is bij de acquisitie, dan zal dit zich ook verta-
len naar het gereconstrueerde beeld. Aangezien het deel van de reconstructieafbeelding dat het
watervolume voorstelt normaal overal dezelfde waarde moet hebben, zal de standaardafwijking
van de waarden in dit deel gelijk zijn aan de standaardafwijking van de ruis. Deze standaard-
afwijking zal dan voor elke reconstructie gebruikt kunnen worden om met behulp van 2.7 de
signaal-ruisverhouding te berekenen.
SNR =µbeeldσwater
(2.7)
Het bepalen van het contrast gebeurt door het scannen van een fantoom met laag contrast.
Dit houdt in dat het fantoom op zijn minst twee aan elkaar grenzende volumes heeft met een
dichtheid die slechts minimaal verschilt. In dit werk werd gebruik gemaakt van een QRM M32-
LC-18 fantoom[34]. Dit is een cilindrisch fantoom uit hars waarin vier smalle cilinders zitten.
Twee van deze cilinders hebben een diameter van 2.5 mm, de andere twee een diameter van
1 mm. De vier cilinders zijn twee aan twee uit een ander materiaal gemaakt: de ene soort
heeft een verschil van ∼40HU met de achtergrond, de andere soort verschilt ∼80HU van de
achtergrond. Figuur 2.3 geeft een schematische voorstelling van het fantoom en formule 2.8
geeft de uitdrukking waarmee de contrast-ruisverhouding berekend kan worden. Hierin stelt SA
het signaal voor van een cilinder en SB het signaal van de hars die de cilinders omhult.
CNR =|SA − SB|σwater
(2.8)
Signaal-ruisverhouding en contrast-ruisverhouding zijn nauw aan elkaar verwant; hoe beter de
signaal-ruisverhouding is, hoe beter ook de contrast-ruisverhouding zal zijn. Er is echter een
ondergrens voor de SNR vanaf waar het voor het menselijk oog niet langer mogelijk is om
Hoofdstuk 2. Methodieken 19
met 100 % zekerheid objecten van elkaar te onderscheiden. Rose kwam reeds in 1948 tot de
vaststelling dat deze ongeveer op een SNR van 5 ligt[35]. Het zal dus weinig zinvol zijn om
contrast te bekijken op beelden waar de SNR lager ligt dan deze ondergrens.
Figuur 2.2: Laag contrast fantoom
2.3.2 Resolutie
Voor het beoordelen van de resolutie wordt gebruikt gemaakt van een draadfantoom. Dit is een
fantoom waarin zich een dunne draad bevindt in lucht of een of andere vloeistof. Hier werd een
QRM M32-Wire fantoom[34][36] gebruikt. Bij dit fantoom zijn er twee wolfraam draden met
een diameter van 10 µm gespannen in lucht. Dit zorgt ervoor dat er een groot contrast is tussen
de draden en hun omgeving, waardoor er betere metingen gedaan kunnen worden. De eerste van
de twee draden bevindt zich dicht bij het centrum van het fantoom, het andere ligt in de buurt
van de rand. Op die manier kunnen er zowel resolutiemetingen in het midden, als meer naar
buiten toe gedaan worden. Dit is belangrijk aangezien de resolutie van een CT-beeld normaal
gezien beter is in het centrum dan erbuiten. Figuur 2.3 geeft een schematische voorstelling van
het fantoom.
Om uitspraken te kunnen doen over de resolutie, wordt gebruik gemaakt van de PSF1. Aan
de PSF van beide draden wordt een Gaussiaan gefit. Van deze Gaussiaan wordt dan telkens
de FWHM2 berekend. Hoe kleiner de FWHM is, hoe nauwkeuriger het algoritme zal zijn. De
FWHM zal steeds in twee richtingen gemeten worden; in radiale en in tangentiale richting.
2.4 Invloed van het startbeeld
Zoals Figuur 1.3 al aangaf, heeft een iteratief algoritme steeds een startbeeld nodig voor de
reconstructie. De keuze van een bepaald startbeeld kan een significante invloed hebben op
1Point Spread Function: het signaal dat bekomen wordt wanneer een puntbron aangelegd wordt aan het
systeem, hetgeen hier overeenkomt met het scannen van een zeer dunne draad.2Full Width at Half Max: de breedte van de Gaussiaan op het punt waar de piek de helft van zijn maximale
hoogte bereikt.
Hoofdstuk 2. Methodieken 20
Figuur 2.3: Draad fantoom
de convergentiesnelheid van het algoritme. Er zijn veel mogelijkheden en in dit werk zullen
er enkele onderzocht worden. De startbeelden kunnen in twee categorieen opgedeeld worden;
low-pass beelden en high-pass beelden.
Een egaal beeld is de meest eenvoudige keuze voor een startbeeld. In dit geval hebben alle
voxels in het beeld dezelfde waarde. Voor additieve algoritmen wordt dit een beeld dat volledig
bestaat uit nulwaarden. Multiplicatieve algoritmen hebben een niet-nul waarde nodig, aange-
zien voxels die op nul gezet worden, niet meer verder kunnen geupdatet worden. De precieze
waarde heeft weinig invloed op het resultaat, maar wordt voor de eenvoud het beste niet te hoog
genomen. In dit werk werd een waarde van 100 gehanteerd. Dit is een low-pass startbeeld.
Een tweede mogelijkheid is een random startbeeld. Hierbij hebben de voxels elk een random
waarde. Bij multiplicatieve beelden zullen deze random waarden opnieuw verschillend van nul
moeten zijn. Dit is het enige high-pass startbeeld.
Een derde mogelijkheid bestaat eruit om eerst een analytische reconstructie uit te voeren
en vervolgens dit FBP beeld te gebruiken als startbeeld voor de iteratieve reconstructie. Op
deze manier zal er minder lang geıtereerd moeten worden, aangezien er gestart wordt van een
beeld dat al veel dichter zal liggen bij het optimum waarnaar geıtereerd wordt. CT-beelden zijn
inherent low-pass, dus ook dit startbeeld is low-pass.
De laatste mogelijkheid die onderzocht zal worden is een multiresolutionele aanpak. Bij
deze aanpak wordt van een egaal beeld gestart, maar de eerste iteratie wordt uitgevoerd op een
lagere resolutie. Het resultaat van deze eerste iteratiestap wordt daarna herschaald tot normale
grootte en gebruikt als startbeeld voor de verdere iteraties. Op deze manier wordt er heel snel
een initieel, lowpass beeld gegenereerd, hetgeen voor een reductie van de ruis zal zorgen.
Figuren 2.4 tot 2.7 geven een voorbeeld van elk startbeeld dat onderzocht zal worden. Het
egale startbeeld in figuur 2.4 is zoals te verwachten valt weinig bijzonder; het heeft overal
dezelfde grijswaarde. Interessanter is het random startbeeld in figuur 2.6. Dit beeld ziet er
Hoofdstuk 2. Methodieken 21
Figuur 2.4: Egaal startbeeld
Figuur 2.5: FBP startbeeld
Figuur 2.6: Random startbeeld
Figuur 2.7: Multiresolutioneel startbeeld
eigenlijk gewoon uit zoals een egaal beeld, waar extreem veel ruis op zit. Een egaal startbeeld
daarentegen, kan beschouwd worden als een startbeeld waar helemaal geen ruis op zit. Het
verschil in ruis op het startbeeld zal uiteraard gevolgen hebben voor de hoeveelheid ruis die
effectief in de reconstructie aanwezig zal zijn, zoals zal blijken in 3.5. Figuur 2.5 en 2.7 zijn
dan weer vrij gelijkaardig, al is het multiresolutioneel startbeeld iets waziger dan het FBP
startbeeld. Het wazige van het multiresolutioneel startbeeld wordt veroorzaakt door het schalen
van het beeld. Hierbij wordt nearest neighbour interpolatie gebruikt omwille van de relatief
goede snelheid van deze interpolatiemethode. Het schalen zorgt er echter voor dat de scherpe
details uitgevlakt worden. Dit is echter positief, aangezien hierdoor de ruis, die bij het FBP
startbeeld licht aanwezig is, enigszins uitgevlakt wordt.
In hoofdstuk 3 zal de invloed van het startbeeld niet apart besproken worden, maar als onderdeel
van de overige parameters die onderzocht worden. Op die manier kan voor elke parameter
gekeken worden hoeveel invloed het startbeeld heeft op de prestatie van elk algoritme voor die
Hoofdstuk 2. Methodieken 22
bepaalde parameter.
2.5 Monte Carlo Simulatie
Initieel was het de bedoeling om ook Monte Carlo-technieken te onderzoeken. Deze zouden
kunnen gebruikt worden om een betere modellering van de projectie te bekomen. Met behulp van
Monte Carlo-technieken is het immers mogelijk om de rontgenstralen te modelleren, waardoor er
nauwkeurigere projecties kunnen berekend worden. Initiele testen met de software die hiervoor
ter beschikking stond gaven echter aan dat een enkele projectie over 1024 hoeken al een aantal
uur in beslag neemt. Aangezien er echter honderden projecties nodig zijn per iteratie zou dit
proces dus veel te veel tijd in beslag nemen. In samenspraak met de begeleider is er toen
afgesproken om deze piste niet verder te onderzoeken.
Hoofdstuk 3
Resultaten
3.1 Convergentie
Aangezien vier van de vijf algoritmes die zullen onderzocht worden, ordered subset varianten
zijn, moet er dus bepaald worden in hoeveel subsets de projectiedata zal worden opgedeeld.
Aangezien snelheid een belangrijke factor is, is het voordelig als er minder iteraties nodig zijn
om het gewenste resultaat te bereiken. Het aantal subsets dat er voor zorgt dat het algoritme
het snelst naar een oplossing convergeert, zal dus een goede keuze zijn. Om de convergentie te
kunnen testen, wordt elk algoritme verschillende malen uitgevoerd, telkens met een verschillend
aantal subsets. Elk algoritme voert acht iteraties uit alvorens het wordt stopgezet. Zoals zal
blijken uit de resultaten is acht iteraties ruim voldoende om een duidelijk beeld te krijgen van
de convergentie. Meer nog, voor het optimale aantal subsets zal na vijf iteraties het beeld niet
drastisch meer veranderen.
De metriek die werd gebruikt om de mate van convergentie te testen, is de NRMSE1 tussen
de opeenvolgende iteraties. NRMSE is een maat voor het verschil tussen twee verschillende
afbeeldingen. Formule 3.1 geeft de uitdrukking die toelaat om de NRMSE tussen twee opeen-
volgende iteraties te berekenen. In deze formule stellen de x1,i de grijswaarden van de pixels
van de eerste afbeelding en x2,i de grijswaarden van de pixels van de tweede afbeelding voor.
xmax en xmin zijn de maximale respectievelijk minimale grijswaarde die in beide afbeeldingen
voorkomt. Naarmate het algoritme convergeert zal de NRMSE tussen opeenvolgende iteraties
steeds kleiner worden. Het aantal subsets waarvoor de NRMSE het snelste daalt, is dus het
aantal subsets dat het algoritme het snelst laat convergeren.
NRMSE =1
xmax − xmin
√√√√√n∑i=1
(x1,i − x2,i)2
n(3.1)
Figuren 3.1, 3.2, 3.3 en 3.4 tonen de NRMSE tussen opeenvolgende iteraties van de verschillende
algoritmes voor verschillende aantallen subsets. Zoals blijkt uit de figuren, zal het aantal subsets
voornamelijk invloed hebben in de eerste iteraties van de algoritmes. Hoe groter het aantal
iteraties, hoe minder invloed het aantal subsets zal hebben op de convergentiesnelheid.
1Normalized Root Mean Square Error
23
Hoofdstuk 3. Resultaten 24
Figuur 3.1: Convergentie van het OSSART
algoritme i.f.v. het aantal subsets
Figuur 3.2: Convergentie van het OS-EM al-
goritme i.f.v. het aantal subsets
Voor OS-SART levert 256 subsets het beste resultaat. Vooral in de eerste iteraties blijkt dat bij
256 subsets de NRMSE veel kleiner is dan voor de andere aantallen. Na acht iteraties echter
is het verschil in NRMSE tussen de verschillende aantallen subsets verwaarloosbaar. Hetgeen
in figuur 3.1 ook opvalt, is dat voor 1024 subsets, wat in dit geval overeenkomt met SART,
de convergentie het op een na beste is. Men zou verwachten dat, in hoe meer subsets de
projecties worden opgedeeld, hoe sneller de convergentie zal zijn. Zoals al eerder aangehaald in
2.2 zal het opdelen in subsets er echter ook voor zorgen dat de oplossingsruimte verdeeld wordt.
In dit geval zal het opdelen in meer dan 256 subsets ervoor zorgen dat de oplossingsruimte
zodanig gefragmenteerd wordt, dat het weer minder eenvoudig wordt om te convergeren naar
een oplossing.
Bij OS-EM is het vrij duidelijk dat de convergentiesnelheid het hoogst is wanneer de projecties
verdeeld worden in 512 subsets, een stuk hoger zelfs nog dan bij OS-SART het geval is. Na
twee iteraties met 512 subsets zijn de veranderingen die verdere iteraties aanbrengen al even
klein als bij OS-SART na acht iteraties. Hier lijkt, net als bij OS-SART voor 256 subsets het
geval was, ook de grens te liggen wat betreft verder opdelen in subsets. Voor 1024 subsets is
de convergentiesnelheid substantieel slechter dan voor 512 subsets. Wat bij OS-EM echter het
meeste opvalt, is de oscillerende convergentie voor 64, 128 en 256 subsets. Dit ligt wederom
aan het opdelen in subsets van de verschillende projecties. De verschillende oplossingsruimten
die door de verschillende subsets worden gedefinieerd, hebben niet langer een gemeenschappe-
lijk punt, waardoor de oplossing oscilleert rond het punt waarnaar het algoritme normaal zou
convergeren. Dit vertaalt zich dan naar een oscillerende NRMSE-curve. In dit geval zijn de
resultaten echter tegen-intuıtief, aangezien de amplitude van de oscillaties verkleint met toene-
mend aantal subsets, en zelfs verdwijnt voor 512 en 1024 subsets. Hiervoor werd echter geen
verklaring gevonden.
Figuur 3.3 geeft een gelijkaardig resultaat voor ISRA als het resultaat voor OS-SART. De pro-
jecties opdelen in 256 subsets levert voor ISRA eveneens het beste resultaat wat betreft con-
vergentiesnelheid. Deze ligt bij ISRA de eerste vier iteraties iets lager dan bij OS-SART, maar
daarna is deze ongeveer gelijk voor beide algoritmes. Bij ISRA zorgt het verdelen in meer dan
Hoofdstuk 3. Resultaten 25
Figuur 3.3: Convergentie van het ISRA algo-
ritme i.f.v. het aantal subsets
Figuur 3.4: Convergentie van het MLTR al-
goritme i.f.v. het aantal subsets
256 subsets voor een slechtere convergentiesnelheid dan wanneer de projecties opgedeeld wor-
den in minder subsets. Na een achttal iteraties echter liggen de NRMSE tussen opeenvolgende
iteraties echter al veel dichter bij elkaar dan bij de overige algoritmes het geval is. ISRA zal dus
het minst gevoelig zijn voor variaties in het aantal subsets.
Bij MLTR geeft het opdelen in 256 subsets eveneens het beste resultaat, al liggen de resultaten
voor 128 en 256 subsets zo goed als vlak tegen elkaar. De convergentiesnelheid ligt bij MLTR
wel een stuk lager in vergelijking met de andere algoritmes. De NRMSE tussen opeenvolgende
iteraties blijft gemiddeld minstens vier maal zo hoog als bij de andere algoritmes het geval
is. Voor 512 subsets kan MLTR blijkbaar niet convergeren naar een oplossing en ontstaat er
opnieuw een oscllerend patroon, zoals eerder al bij OS-EM het geval was.
SART OS-SART OS-EM ISRA MLTR
1024 256 512 256 256
Tabel 3.1: Optimaal aantal subsets per algoritme
Tabel 3.1 geeft nog een overzicht van het optimale – of in het geval van SART, obligate – aantal
subsets voor elk algoritme. Uit de tabel blijkt duidelijk dat de convergentiesnelheid het hoogst
is, als er niet te veel projecties in een subset zitten. Te weinig projecties is echter ook niet
de oplossing, aangezien dan de oplossingsruimte te gefragmenteerd wordt en de convergentie in
sommige gevallen in het gedrang komt.
3.2 Ruisgevoeligheid
Zoals al eerder vermeld in 2.3 is het waterfantoom zeer belangrijk voor het bepalen van de ruis-
gevoeligheid van de verschillende algoritmes. In wat volgt zal het waterfantoom dus een van de
fantomen zijn waarvoor de SNR zal vergeleken worden voor de verschillende algoritmes. Aan-
gezien de SNR ook nauw samenhangt met het contrast, zal ook voor het laagcontrast fantoom
Hoofdstuk 3. Resultaten 26
de SNR vergeleken worden. Op basis hiervan zal dan verder beslist kunnen worden voor welke
algoritmes/startbeelden het nuttig zal zijn om contrast te berekenen. Elk algoritme werd na vijf
iteraties gestopt, aangezien hierboven in 3.1 al bleek dat, wanneer het optimale aantal subsets
genomen wordt, na een vijftal iteraties de beelden niet veel meer veranderen.
OS-SART
Figuur 3.5 toont voor OS-SART de SNR van het water en laagcontrast fantoom voor verschil-
lende startbeelden. Wat onmiddellijk opvalt is dat de SNR enorm laag is wanneer vertrokken
wordt van een random startbeeld. Dit startbeeld komt immers overeen met een high-pass beeld
dat zuiver uit ruis bestaat. Aangezien CT-beelden echter inherent low-pass zijn, moet er dus
veel meer aangepast worden aan het startbeeld dan bij een low-pass1 startbeeld het geval is. Dit
blijkt ook duidelijk uit de SNR van de opeenvolgende iteraties; waar de SNR daalt met stijgend
aantal iteraties voor de low-pass startbeelden, stijgt deze voor het random startbeeld. De SNR
lijkt op basis van de resultaten te convergeren naar een SNR die rond de 3 a 4 ligt.
In vergelijking met analytische reconstructie geven OS-SART met een egaal startbeeld en OS-
SART met FBP startbeeld ongeveer gelijke – voor het laagcontrast fantoom – tot een stuk betere
resultaten – voor het waterfantoom – tijdens de eerste iteraties. Voor de multiresolutionele
aanpak liggen de resultaten nog iets beter, met voor het waterfantoom een veel hogere SNR
dan voor analytische reconstructie het geval is. Het is opvallend dat wanneer gestart wordt van
de multiresolutionele aanpak of van een FBP als startbeeld, er slechts weinig verbetering is ten
opzichte van een egaal startbeeld. Enkel in de eerste iteratie ligt de SNR iets hoger dan bij
een egaal startbeeld het geval is. Dit betekent dus dat, wanneer van een low-pass startbeeld
vertrokken wordt, OS-SART zeer snel het effect van een verschillend startbeeld teniet doet2.
Om een reconstructie te bekomen met een goede SNR zal het dus voldoende zijn om een low-
pass startbeeld te gebruiken en het itereren na een of twee iteraties stop te zetten. Verdere
analyse van de spatiale resolutie en uitvoeringstijd zal uitwijzen of het voor OS-SART effectief
voordeliger is om een gesofisticeerder startbeeld dan een gewoon egaal startbeeld te gebruiken.
SART
Figuur 3.6 toont de SNR voor de verschillende startbeelden en fantomen voor het SART algo-
ritme. De verschillende SNR liggen hier een stuk dichter bij elkaar dan bij OS-SART het geval
was, maar met minder hoge uitschieters. Ook hier convergeert de SNR na enkele iteraties, dit
keer naar een SNR van 2 a 3. Het random startbeeld geeft opnieuw het minst goede resultaat, al
ligt de SNR toch een stuk hoger dan bij OS-SART het geval was. SART kan dus duidelijk beter
om met een high-pass startbeeld dan OS-SART. De low-pass startbeelden geven bijna identieke
resultaten op gebied van SNR. In het bijzonder in de eerste iteraties geven deze een significant
beter resultaat dan voor een random startbeeld het geval is, maar de resultaten liggen toch nog
een heel stuk lager dan voor analytische reconstructie het geval is. Waar er bij OS-SART wat
1Egaal, multiresolutioneel of FBP startbeeld2i.e. waar het SNR betreft.
Hoofdstuk 3. Resultaten 27
Figuur 3.5: Vergelijking van de SNR van het OS-SART algoritme voor verschillende fantomen en start-
beelden
betreft SNR nog enig voordeel was verbonden aan het gebruiken van een complexer startbeeld,
is dit bij SART absoluut niet meer het geval. Een egaal startbeeld geeft zo goed als identieke
resultaten als de complexere startbeelden, maar met het additionele voordeel dat het veruit het
eenvoudigst te construeren startbeeld is. Voor SART zal het dus het voordeligst zijn om een
egaal startbeeld te nemen wanneer het doel een optimale SNR is. Net als bij OS-SART liggen
de SNR voor de verschillende fantomen bij SART iets uit elkaar, met een iets beter resultaat
voor het waterfantoom dan voor het laagcontrast fantoom.
OS-EM
In figuur 3.7 worden de SNR voor het OS-EM algoritme getoond. Ook hier liggen de SNR in
elkaars buurt, met opnieuw een convergentie naar een SNR van 2 a 3. Net als bij de vorige
algoritmes het geval was, daalt de SNR voor de lowpass startbeelden en stijgt deze voor de
highpass startbeelden. De low-pass startbeelden leveren opnieuw het beste resultaat in de eerste
iteraties, met de multi-resolutionele aanpak die het nog net iets beter doet dan de overige twee.
Na een vijftal iteraties is er echter slechts weinig verschil meer tussen het resultaat voor het
egaal startbeeld en het random startbeeld. Net als bij SART liggen de prestaties van OS-EM
een heel stuk onder deze die bekomen worden via analytische reconstructie. Bij OS-EM speelt
het fantoom echter een minder grote rol dan bij SART en OS-SART het geval was, aangezien de
SNR bijna gelijk is voor het waterfantoom en voor het laagcontrast fantoom. OS-EM ondervindt
dus weinig invloed van zowel het beeld dat gereconstrueerd wordt, als het beeld waarvan gestart
wordt. Enkel in de eerste iteraties doen de low-pass startbeelden het significant beter. Wanneer
dus de SNR dient geoptimaliseerd te worden, zal, net als bij de vorige algoritmes, het beste voor
een low-pass startbeeld gekozen worden.
Hoofdstuk 3. Resultaten 28
Figuur 3.6: Vergelijking van de SNR van het SART algoritme voor verschillende fantomen en startbeel-
den
Figuur 3.7: Vergelijking van de SNR van het OS-EM algoritme voor verschillende fantomen en start-
beelden
ISRA
Figuur 3.8 toont de SNR waarden voor het ISRA algoritme. De resultaten voor de verschillende
startbeelden liggen hier opnieuw iets verder uit elkaar dan bij SART en OS-EM het geval was.
Veruit het beste resultaat – althans voor de eerste iteraties – wordt bereikt wanneer de multi-
resolutionele aanpak gekozen wordt. Voor het waterfantoom ligt de SNR iets hoger dan voor
Hoofdstuk 3. Resultaten 29
analytische reconstructie het geval is. Voor het laagcontrast ligt het resultaat echter weer een
stuk lager. Het random startbeeld geeft ook hier weer het slechtste resultaat, met een SNR die
richting 3 gaat. Een FBP beeld als startbeeld geeft voor ISRA ongeveer dezelfde resultaten als
voor een egaal startbeeld, i.e. ongeveer dezelfde kwaliteit als analytische reconstructie voor het
waterfantoom en een stuk slechter voor het laagcontrast fantoom. Opvallend is dat voor deze
startbeelden de SNR van de eerste iteratie een stuk lager ligt dan deze van de daaropvolgende
iteraties, het beeld van de eerste iteratie bevat meer ruis. Een exacte reden hiervoor werd niet
gevonden, maar zou eventueel te vinden kunnen zijn in het feit dat, in tegenstelling tot de overige
algoritmes, ISRA zijn vergelijking van de gemeten met de berekende data in het beelddomein
doet. De convergentie van de SNR ligt ongeveer tussen die van OS-SART en SART/OS-EM.
Afgaande op de resultaten voor opeenvolgende iteraties zal deze rond een SNR van 3 liggen.
Het is vrij duidelijk dat wanneer voor ISRA de SNR dient geoptimaliseerd te worden, voor de
multiresolutionele aanpak dient gekozen te worden, aangezien dit de beste resultaten oplevert.
Figuur 3.8: Vergelijking van de SNR van het ISRA algoritme voor verschillende fantomen en startbeel-
den
MLTR
Figuur 3.9 toont de SNR waarden voor het MLTR algoritme. Hetgeen hier onmiddellijk opvalt,
is dat de multiresolutionele aanpak het bijzonder goed doet in combinatie met MLTR. De SNR
liggen voor het waterfantoom meer dan dubbel zo hoog als deze voor analytische reconstructie.
Voor het laagcontrastfantoom is het verschil iets minder spectaculair, maar liggen de resultaten
voor de eerste iteraties toch nog significant hoger. MLTR in combinatie met een multiresolu-
tionele aanpak voor het startbeeld levert dus beelden op waar een stuk minder ruis aanwezig
is dan voor analytische reconstructie het geval is. Ook voor een egaal en een FBP startbeeld
worden goede resultaten opgetekend. Voor het waterfantoom liggen de SNR gevoelig hoger dan
Hoofdstuk 3. Resultaten 30
deze voor analytische reconstructie, met een licht voordeel in de eerste iteratie voor het FBP
startbeeld. Bij het laagcontrastfantoom liggen de resultaten net onder die van analytische re-
constructie. Net als bij OS-SART ligt het enige verschil tussen een egaal startbeeld en een FBP
startbeeld in de eerste iteratie. Enkel daar is er een klein verschil tussen de twee. Het random
startbeeld geeft ook bij MLTR veruit de slechtste resultaten, met SNR waarden die zelfs amper
boven 2 uitkomen. Afgaande op de resultaten zal de SNR convergeren naar een waarde van
ongeveer 4.
Figuur 3.9: Vergelijking van de SNR van het MLTR algoritme voor verschillende fantomen en start-
beelden
Overzicht
Tot slot geeft figuur 3.10 nog een overzicht van de hoogste SNR waarden van de verschillende
algoritmes. In deze figuur zijn, voor elk algoritme, de hoogste SNR waarde die bereikt werd voor
elke startbeeld-fantoom combinatie uitgezet. Op deze manier kunnen de algoritmes onderling
vergeleken worden. Hetgeen onmiddellijk opvalt is dat de hoogste SNR waarden bereikt worden
wanneer OS-SART of MLTR gecombineerd worden met een low-pass startbeeld. Deze combi-
natie levert voor beide fantomen SNR waarden die significant hoger liggen dan bij analytische
reconstructie het geval is. Voor de multiresolutionele aanpak liggen deze resultaten zelfs bijna
anderhalve keer hoger dan bij analytische reconstructie.
Vooral MLTR lijkt veel baat te hebben bij de multiresolutionele aanpak, meer dan de andere
algoritmes. Dit kan verklaard worden door terug te gaan naar 3.1. Daar bleek uit de analyse
van de convergentie1 dat MLTR een stuk trager convergeert dan de overige algoritmes. Dit
1zie figuur 3.4
Hoofdstuk 3. Resultaten 31
Figuur 3.10: Vergelijking van de hoogste SNR waarden van de verschillende algoritmes voor de ver-
schillende startbeelden en fantomen.
houdt echter ook in dat MLTR veel minder snel ruis zal beginnen introduceren dan de overige
algoritmes. Dit effect wordt nog versterkt door het toepassen van de multiresolutionele aanpak,
waardoor de beelden die MLTR produceert veel meer low-pass zijn dan de beelden die de overige
algoritmes produceren. Dit zorgt er dan ook voor dat de SNR waarden hoger zullen liggen.
SART en OS-EM geven de minst goede resultaten over de verschillende fantomen en startbeelden
bekeken. Enkel voor het random startbeeld geven zij de beste resultaten, maar het verschil met
de andere algoritmes is bijna verwaarloosbaar. Voor al de overige combinaties van startbeeld met
fantoom zijn de SNR waarden slechts de helft van deze die OS-SART en MLTR opleveren. ISRA
geeft voor de low-pass startbeelden ongeveer dezelfde resultaten als analytische reconstructie.
Dit is dus net iets minder goed dan OS-SART en MLTR, maar toch aanvaardbaar wat betreft
ruis.
Uit figuur 3.10 blijkt ook dat er geen enkel algoritme is dat het echt goed doet voor een random
startbeeld. De maximale SNR waarden die voor een random startbeeld bereikt kunnen worden
bedragen slechts een derde tot, in het slechtste geval, een vijfde van de maximale waarden die
met de overige startbeelden kunnen bekomen worden. Er kan dus veilig besloten worden dat,
wanneer een goede SNR belangrijk is, een random startbeeld geen goede keuze zal zijn. De
beste keuze voor een goede SNR is OS-SART of MLTR in combinatie met de multiresolutionele
aanpak voor het startbeeld.
De afbeeldingen 3.11 tot 3.14 bevestigen deze resultaten visueel. Het is duidelijk dat zelfs
het beste resultaat voor een random startbeeld – afbeelding 3.13 – nog steeds veel meer ruis
bevat dan de analytische reconstructie – afbeelding 3.11. Aan de andere kant zijn OS-SART –
afbeelding 3.14 – en vooral MLTR – afbeelding 3.12 – met multiresolutioneel startbeeld een stuk
minder ruizig dan analytische reconstructie. MLTR geeft een bijna perfect egaal watervolume,
Hoofdstuk 3. Resultaten 32
hetgeen zorgt voor de hoge SNR. Het nadeel is echter wel dat de details lichtjes uitgevlakt zijn.
Figuur 3.11: Analytische reconstructie
Figuur 3.12: MLTR met multiresolutioneel
startbeeld
Figuur 3.13: OS-EM met random startbeeld
Figuur 3.14: OS-SART met multiresolutio-
neel startbeeld
Hoofdstuk 3. Resultaten 33
3.3 Contrast
Zoals vermeld in 2.3 zal voor het vergelijken van de algoritmes op basis van het contrast gekozen
worden voor een laagcontrast fantoom. Voorts toonden de resultaten voor SNR in 3.4 aan dat
het criterium van Rose voor geen enkel van de algoritmes gehaald wordt wanneer gestart wordt
van een random startbeeld. In wat volgt zal er dus ook geen rekening gehouden worden met
een random startbeeld, aangezien dit geen zinnige resultaten zou opleveren. Daarom zullen
dus enkel het egale startbeeld, de multiresolutionele aanpak en het FBP startbeeld beschouwd
worden.
Egaal startbeeld
Figuur 3.15: Vergelijking van de CNR voor verschillende algoritmes met egaal startbeeld.
Figuur 3.15 toont de CNR voor de verschillende algoritmes wanneer vertrokken wordt van een
egaal startbeeld. De CNR waarden vertonen ongeveer dezelfde trends die al eerder naar voor
kwamen bij de SNR waarden. OS-SART en MLTR leveren iets betere resultaten op gebied van
contrast dan de andere algoritmes. Het contrast daalt echter vrij snel in de eerste iteraties van
MLTR, maar stabiliseert zich opnieuw. OS-SART daarentegen vertoont een veel geleidelijkere
afname van het contrast over de verschillende iteraties. Zowel OS-SART als MLTR halen in
de eerste iteraties ongeveer dezelfde CNR waarden als deze voor analytische reconstructie. Na
enkele iteraties liggen de CNR waarden van OS-SART en MLTR echter terug een stuk lager dan
deze voor analytische reconstructie.
SART levert voor een egaal startbeeld de slechtste resultaten wat betreft contrast, met waarden
die voor bepaalde iteraties tot de helft lager liggen dan deze voor de overige algoritmes. OS-EM
en ISRA hebben iets hogere CNR waarden die ongeveer even hoog zijn als de CNR waarden van
de latere iteraties van OS-SART en MLTR.
Hoofdstuk 3. Resultaten 34
Multiresolutioneel startbeeld
Figuur 3.16: Vergelijking van de CNR voor verschillende algoritmes met multiresolutionele aanpak.
De resultaten in figuur 3.16 tonen de CNR waarden wanneer de multiresolutionele aanpak ge-
bruikt wordt. De CNR waarden liggen voor het grootste deel in lijn met deze in figuur 3.15,
zij het dan dat ze iets hoger liggen. OS-SART heeft nu ongeveer een gelijkaardige prestatie als
analytische reconstructie en ook ISRA benadert het contrast dat via analytische reconstructie
bekomen wordt.
Het meest opmerkelijke is opnieuw de boost die MLTR krijgt door het gebruik van de multi-
resolutionele aanpak. Waar de verbetering van het contrast bij de overige algoritmes eerder
bescheiden is, zijn de CNR waarden voor MLTR anderhalf tot bijna twee keer zo groot. Deze
enorme verbetering heeft dezelfde oorzaak als de toename die eerder al opdook bij de SNR
waarden. Aangezien contrast zeer nauw samenhangt met SNR is het dus logisch dat deze trend
zich ook doorzet bij de CNR waarden. Aangezien MLTR veel minder snel ruis introduceert
dan de overige algoritmes, zal het gemiddelde signaal in de cilinders van het fantoom veel meer
verschillen van dat van de omliggende hars. Dit komt omdat de ruis bias introduceert in de
voxelwaarden, waardoor de gemiddelde waarden van twee beeldregios, waartussen sowieso al
weinig contrast is, dichter bij elkaar zullen liggen.
FBP startbeeld
Voor het FBP startbeeld liggen de CNR waarden volledig in dezelfde lijn als deze voor het
egale startbeeld. Slechts op een paar plaatsen in figuur 3.17 ligt de CNR waarde net iets hoger
dan voor een egaal startbeeld het geval was, maar de verschillen zijn verwaarloosbaar klein.
Het zijn opnieuw OS-SART en vooral MLTR die het beste scoren, zelfs beter dan analytische
reconstructie in de eerste iteraties. Aangezien de resultaten voor het FBP startbeeld echter
Hoofdstuk 3. Resultaten 35
Figuur 3.17: Vergelijking van de CNR voor verschillende algoritmes met FBP startbeeld.
zo dicht bij deze van het egale startbeeld liggen, zal de extra kost die gepaard gaat met het
construeren van een FBP startbeeld niet gecompenseerd worden door betere resultaten. Wanneer
dus de keuze tussen een egaal en een FBP startbeeld dient gemaakt te worden, zal het egale
startbeeld de beste keuze zijn, omwille van zijn eenvoud.
Overzicht
Figuur 3.18: Vergelijking van de hoogste CNR van de verschillende algoritmes voor de verschillende
startbeelden.
Hoofdstuk 3. Resultaten 36
Figuur 3.18 geeft tot slot een vergelijking van de beste CNR die elk algoritme weet te bereiken
voor elk startbeeld. Het valt niet te betwisten dat OS-SART en MLTR veruit de beste resul-
taten geven waar het contrast betreft. Beide presteren voor alle drie de startbeelden beter dan
analytische reconstructie. Het allerbeste resultaat wordt bekomen wanneer MLTR gecombineerd
wordt met de multiresolutionele aanpak. Deze combinatie presteert op gebied van contrast dub-
bel zo goed als analytische reconstructie. Het minst goede resultaat wordt geleverd door SART,
OS-EM en ISRA. Het beste resultaat voor deze algoritmes ligt iets onder dat voor analytische
reconstructie, ongeacht het startbeeld waarvan vertrokken wordt.
De afbeeldingen 3.19 tot 3.22 geven een visuele representatie van de resultaten. Afbeelding
3.21 die de reconstructie met SART voorsteld, is gevoelig ruiziger dan de overige afbeeldingen.
De cilinder op basis waarvan het contrast gemeten wordt, is nog amper te onderscheiden op
de reconstructie. Er is dus zo goed als geen contrast. Bij MLTR en OS-SART daarentegen,
zijn de cilinders vrij duidelijk te onderscheiden. Ook hier is de afbeelding voor MLTR lichtjes
uitgevlakt, al valt het minder op dan bij het water fantoom. Aan de andere kant is er wel weer
minder ruis aanwezig dan voor analytische reconstructie het geval is. De afbeeldingen bevestigen
dus de resultaten die hierboven bekomen werden.
Hoofdstuk 3. Resultaten 37
Figuur 3.19: Analytische reconstructie
Figuur 3.20: MLTR met multiresolutioneel
startbeeld
Figuur 3.21: SART met egaal startbeeld
Figuur 3.22: OS-SART met multiresolutio-
neel startbeeld
Hoofdstuk 3. Resultaten 38
3.4 Resolutie
Om de verschillende algoritmes te vergelijken op gebied van spatiale resolutie, werd voor elk
van de combinaties het draadfantoom gescand. In tegenstelling tot wat bij het vergelijken van
het contrast het geval was, zal hier wel het random startbeeld in rekening genomen worden bij
het vergelijken. Aangezien het draadfantoom zo is gemaakt dat er een zeer groot contrast is
tussen de draden en hun omgeving, zullen deze zelfs in een ruizige omgeving goed zichtbaar
zijn. Hierdoor treedt dus niet de beperking op die het laagcontrast fantoom wel kent. Voor het
vergelijken van de spatiale resolutie zullen dus al de startbeelden besproken worden.
Egaal startbeeld
Figuur 3.23: De FWHM van de centrale draad wanneer gestart wordt van een egaal startbeeld.
Figuren 3.23 en 3.24 geven de resultaten voor de FWHM van de twee draden, wanneer gestart
wordt van het egale startbeeld. Het eerste wat opvalt aan deze resultaten, is dat geen enkele van
de algoritmes substantieel veel beter doet dan analytisch reconstructie. Zowel in het midden
van het beeld als aan de zijkant, geeft analytische reconstructie voor drie van de vier orientaties
de laagste FWHM. Enkel ISRA doet voor twee van de vier orientaties even goed tot beter dan
het resultaat van analytische reconstructie.
OS-SART en MLTR, de twee algoritmes die het beste scoorden op gebied van ruis en contrast,
blijken hier de minst goede resultaten te geven. De FWHM ligt na een aantal iteraties telkens
tussen de 50 en de 100µm hoger dan voor analytische reconstructie en ISRA het geval is. Dit
is echter niet verwonderlijk, juist omdat deze algoritmes zo goed scoren voor ruis en contrast.
Zoals al eerder werd vermeld, zorgen OS-SART en in het bijzonder MLTR ervoor dat de gere-
construeerde afbeelding meer low-pass wordt. Een beeld meer low-pass maken houdt echter ook
in dat kleine details enigszins uitgevlakt worden, hetgeen zich dan ook vertaalt naar de FWHM
Hoofdstuk 3. Resultaten 39
Figuur 3.24: De FWHM van de off-center draad wanneer gestart wordt van een egaal startbeeld.
van de pieken die de draden veroorzaken. De FWHM is in de eerste iteraties vrij hoog, maar
daalt toch enigszins na een aantal iteraties.
OS-EM en SART scoren vrij consistent een FWHM van ongeveer 200µm, een resultaat dat net
iets hoger ligt dan de resultaten van ISRA. Bij deze drie algoritmes blijft de FWHM ongeveer
stabiel, terwijl deze gestaag daalt voor OS-SART en MLTR. Dit betekent dat OS-EM, SART
en ISRA bijna onmiddelijk convergeren naar de beste spatiale resolutie die door hen bereikt kan
worden. De uitschieters van OS-EM voor de off-center draad zijn te wijten aan ruisartefacten.
Zoals al eerder bleek geeft OS-EM consistent de meeste ruis voor het egale startbeeld en het zijn
deze ruisartefacten die hier de resultaten beınvloeden. Vooral de nabijheid van het bed waarop
het fantoom ligt introduceert bij OS-EM redelijk wat ruis.
Random startbeeld
Voor het random startbeeld liggen de resultaten iets beter dan voor het egale startbeeld het
geval was. Op de FWHM in radiale richting van de centrale draad na, haalt ISRA resultaten die
even goed zijn als deze behaald via analytische reconstructie. Het is voor het random startbeeld
eveneens het best scorende algoritme wat betreft spatiale resolutie. De resultaten voor ISRA
varieren opnieuw niet veel met toenemend aantal iteraties, hetgeen aangeeft dat de optimale
spatiale resolutie opnieuw zeer snel bereikt wordt.
Voor OS-SART konden er voor de eerste iteratie geen zinnige resultaten bekomen worden voor
de FWHM. Door ruisartefacten kon het algoritme dat gebruikt werd voor het fitten van een
Gaussiaan niet convergeren. Het is echter veilig aan te nemen dat het resultaat van de eerste
iteratie van OS-SART ongeveer in dezelfde lijn zal liggen als dat van MLTR, gezien deze resul-
taten tot nu toe steeds gelijkaardig waren. OS-SART en MLTR doen gevoelig beter op gebied
Hoofdstuk 3. Resultaten 40
Figuur 3.25: De FWHM van de centrale draad wanneer gestart wordt van een random startbeeld.
Figuur 3.26: De FWHM van de off-center draad wanneer gestart wordt van een random startbeeld.
Hoofdstuk 3. Resultaten 41
van spatiale resolutie wanneer gekozen wordt voor een random startbeeld, dan wanneer voor het
egale gekozen wordt. Na een tweetal iteraties liggen de resultaten aan de rand zelfs in dezelfde
lijn als de resultaten die via ISRA bekomen worden. Aangezien een random startbeeld high-pass
is, zal het in dit geval eenvoudiger zijn voor OS-SART en MLTR om de high-pass pieken van de
twee draden in het fantoom te genereren.
SART scoort voor een random startbeeld in het midden van de afbeelding gevoelig beter dan
aan de zijkanten. In het centrum heeft SART een gelijkaardige spatiale resolutie als analytische
reconstructie en in de radiale richting scoort het zelfs beter dan ISRA. Bij OS-EM doet zich
de omgekeerde trend voor; hier is het beeld centraal net iets minder goed dan aan de rand.
De oorzaak hiervoor kan echter opnieuw gevonden worden wanneer de ruis in rekening gebracht
wordt. De resultaten voor de off-center draad bij OS-EM varieren net als bij het egale startbeeld
redelijk veel aangezien het beeld aan de rand vrij ruizig is, door de nabijheid van het bed.
Multiresolutionele aanpak
Figuur 3.27: De FWHM van de centrale draad wanneer gebruik gemaakt wordt van de multiresolutio-
nele aanpak.
De multiresolutionele aanpak bleek eerder al bijzonder effectief om een goede SNR en CNR
te verkrijgen door de beelden lichtjes uit te vlakken. Het is dus logisch dat figuren 3.27 en
3.28 een FWHM tonen die overal lichtjes hoger liggen dan bij een random of egaal startbeeld
het geval was. SART, OS-EM en vooral ISRA zijn opnieuw de best scorende algoritmes wat
betreft spatiale resolutie, terwijl ook OS-SART het voor de off-center draad niet slecht doet. De
FWHM van deze algoritmes ligt boven dat van analytische reconstructie voor de centrale draad
en ongeveer gelijk, tot zelfs iets lager voor ISRA en OS-EM, voor de off-center draad.
OS-SART en MLTR, de algoritmes die opnieuw iets slechter scoren, hebben opnieuw duidelijk
Hoofdstuk 3. Resultaten 42
Figuur 3.28: De FWHM van de off-center draad wanneer gebruik gemaakt wordt van de multiresoluti-
onele aanpak.
meerdere iteraties nodig om naar hun optimale FWHM te gaan. De figuren tonen duidelijk hoe
de FWHM relatief snel afneemt met de opeenvolgende iteraties. De overige algoritmes hebben,
net als voor de eerdere startbeelden, een eerder constant verloop met slechts weinig variatie.
Voor deze algoritmes wordt sneller een stabiele toestand bereikt. Dit geldt in dit geval ook voor
OS-EM, dat voor een egaal of random startbeeld telkens redelijk wat variatie vertoonde. De
multiresolutionele aanpak zorgt er hier echter voor dat de ruis een stuk verminderd wordt, en
dus minder een rol speelt dan bij het random of egaal startbeeld het geval is.
FBP startbeeld
Figuren 3.29 en 3.30 geven de FWHM voor de verschillende algoritmes wanneer gestart wordt
van een FBP startbeeld. Voor de centrale draad liggen de resultaten ongeveer in dezelfde lijn als
deze die bekomen worden met de multiresolutionele aanpak. Geen van de algoritmes kan beter
doen dan de resultaten voor analytische reconstructie, al komt SART wel dicht in de buurt. OS-
SART en MLTR doen het opnieuw minder goed, maar de reden hiervoor is opnieuw gelijkaardig
als bij de multiresolutionele aanpak het geval was. Het FBP startbeeld scoorde eveneens zeer
goed op het wegwerken van ruis, dus het is niet verwonderlijk dat daardoor de FWHM hier net
iets hoger liggen.
Voor de off-center draad liggen de resultaten van al de algoritmes zeer dicht bij elkaar en doen
zelfs OS-SART en MLTR even goed als analytische reconstructie. ISRA scoort hier opnieuw
het beste, met vrij stabiele resultaten. In tegenstelling tot wat bij de de andere startbeelden
het geval is, varieren OS-SART en MLTR voor een FBP startbeeld veel minder. Na de tweede
iteratie is er slechts een kleine daling meer van de FWHM, hetgeen aangeeft dat met een FBP
startbeeld deze algoritmes sneller convergeren naar hun beste resultaat.
Hoofdstuk 3. Resultaten 43
Figuur 3.29: De FWHM van de centrale draad wanneer gestart wordt van een FBP startbeeld.
Figuur 3.30: De FWHM van de off-center draad wanneer gestart wordt van een FBP startbeeld.
Hoofdstuk 3. Resultaten 44
Overzicht
Tot slot geven figuren 3.31 en 3.32 de beste FWHM die door de verschillende algoritmes gehaald
worden voor de verschillende startbeelden. Op de radiale richting van de centrale draad na,
geeft ISRA het beste resultaat voor de spatiale resolutie, met resultaten die voor de centrale
draad in de buurt liggen van analytische reconstructie en voor de off-center draad zelfs een stuk
beter zijn. SART geeft voor de centrale draad de beste resultaten, even goed als deze van ISRA.
Voor de off-center draad liggen de resultaten voor SART echter iets minder goed en meer in de
lijn van de resultaten die OS-SART en MLTR leveren. Ook OS-EM scoort op bepaalde plaatsen
vrij goed, maar heeft door z’n hoge ruisgehalte vrij veel variatie in zijn resultaten. De beste
scores van OS-SART en MLTR zijn vrij stabiel over de verschillende orientaties, maar liggen
gemiddeld toch een kleine 50 a 100 µm hoger dan de resultaten bekomen met ISRA. Dit lijkt
veel te zijn, maar als er in acht genomen wordt dat de voxelgrootte 120 µm bedraagt, zal het
visuele verschil slechts zeer beperkt zijn.
De afbeeldingen 3.33 tot 3.36 geven de visuele representatie van enkele resultaten. Voor het
eerst kan hier een discrepantie opgemerkt worden tussen de analytische resultaten en de visuele
representatie. Hoewel zowel ISRA als OS-EM redelijk goed scoren wat betreft FWHM, zijn hun
respectievelijke afbeeldingen – 3.35 en 3.36 – toch niet overdreven duidelijk. De draden zijn dan
wel ongeveer even scherp als bij de analytische reconstructie op afbeelding 3.33, de rest van de
afbeelding is echter een heel stuk ruiziger. Dit komt doordat het aantal iteraties dat nodig is om
de optimale spatiale resolutie te verkrijgen, overeenstemmen met iteraties die een redelijk lage
SNR hadden. Hierdoor is de afbeelding die na 5 iteraties via MLTR bekomen wordt – afbeelding
3.34 – een heel stuk duidelijker, ondanks het feit dat de FWHM aan de hoge kant is. De stippen
op de afbeelding die overeen komen met de tungsten draden in het fantoom, zijn net iets breder
dan voor analytische reconstructie het geval is, maar dit valt amper op te maken uit de figuur.
ISRA mag dus dan wel de theoretisch beste resultaten geven, de ruis speelt echter een dusdanig
grote rol, dat de details verloren gaan.
Hoofdstuk 3. Resultaten 45
Figuur 3.31: De beste FWHM van de centrale draad voor de verschillende startbeelden en algoritmes
Figuur 3.32: De beste FWHM van de off-center draad voor de verschillende startbeelden en algoritmes
Hoofdstuk 3. Resultaten 46
Figuur 3.33: Analytische reconstructie
Figuur 3.34: MLTR met multiresolutioneel
startbeeld
Figuur 3.35: ISRA met egaal startbeeld
Figuur 3.36: OS-EM met random start-
beeld
Hoofdstuk 3. Resultaten 47
3.5 Snelheid
3.5.1 Vergelijking van de uitvoeringstijden
Figuur 3.37 toont de tijd die de verschillende algoritmes nodig hebben om de maximale ruis-
bestendigheid en contrast te bekomen1. Het is duidelijk uit de figuur dat ISRA en MLTR de
snelste algoritmes zijn. Beide zijn tot meer dan vijf minuten sneller dan de overige algoritmes.
Hoewel zij echter een stuk sneller zijn dan de rest, liggen hun uitvoeringstijden toch nog een heel
stuk boven die van analytische constructie. ISRA en MLTR hebben nog bijna dubbel zo veel tijd
nodig voor een reconstructie in vergelijking met analytische reconstructie. Dit betekent echter
niet dat zij daarom onbruikbaar worden. Een uitvoeringstijd die onder de twintig minuten ligt
is zeker aanvaardbaar voor een reconstructie.
Figuur 3.37: Vergelijking van de uitvoeringstijden voor de verschillende algoritmes en startbeelden.
Voorts kan opgemerkt worden dat het construeren van het multiresolutioneel startbeeld zeer snel
gebeurt. Deze eerste iteratie op een lagere resolutie zorgt maar voor een meerkost van slechts
een tweetal minuten. De meerkost voor het construeren van een FBP startbeeld daarentegen
is dezelfde als de uitvoeringstijd van een analytische reconstructie. Op figuur 3.37 moet er dus
rekening gehouden worden met een extra kost van 7 a 8 minuten wanneer gestart wordt van een
FBP startbeeld. Het construeren van het egale en het random startbeeld neemt uiteraard de
minste tijd in beslag, omwille van hun eenvoud.
3.5.2 Analyse van de uitvoeringstijden
In 3.5.1 werden reeds de totale tijdskosten van de algoritmes met elkaar vergeleken. Het is
echter ook interessant om de verschillende uitvoeringstijden iets nauwkeuriger te bekijken, om
op die manier te kunnen achterhalen welke delen van de verschillende algoritmes het meest
1Het random startbeeld is niet in deze figuur opgenomen, omwille van de slechte resultaten.
Hoofdstuk 3. Resultaten 48
bijdragen tot de uitvoeringstijd. In wat volgt zal een onderscheid gemaakt worden tussen de
eenmalige tijdskost en de kost die per iteratie terugkeert. De eenmalige kost bestaat uit het
inlezen van de datasets, het alloceren van het geheugen en, voor MLTR, het berekenen van de
normalisatiefactor. De kosten die per iteratie terugkeren worden opgedeeld in het uitvoeren van
de projectie, backprojectie, berekenen van de fout (compare), update, voor MLTR en ISRA,
het terugprojecteren van de gemeten data en, enkel voor MLTR, de conversie van de berekende
projecties. Figuren 3.38 tot 3.42 tonen de totale tijdskost voor elk algoritme, opgedeeld volgens
de verschillende stappen die in het algoritme voorkomen.
Figuur 3.38: Tijdskost van de verschillende onderdelen van OS-SART
Het eerste wat opvalt is dat enkel OS-SART, SART en OS-EM een significante eenmalige kost
hebben en dat deze zo goed als volledig bestaat uit het alloceren van geheugen. Dit kan echter
eenvoudig verklaard worden door terug te keren naar de respectievelijke formules van deze algo-
ritmes (zie 2.1 en 2.4). In tegenstelling tot ISRA en MLTR (zie 2.5 en 2.6), wordt bij OS-SART,
SART en OS-EM de fout berekend in het projectiedomein. Om te voorkomen dat de gemeten
projecties in een subset bij elke iteratie opnieuw zouden moeten ingelezen worden, werd ervoor
gekozen om deze aan het begin van de reconstructie allemaal in het RAM geheugen te laden,
aangezien er toch genoeg ruimte beschikbaar was. Dit heeft echter wel als gevolg dat ongeveer
5 GiB aan data moet gelezen worden van de harde schijf en gealloceerd worden in het RAM
geheugen.
Bij de tijdskosten die zich elke iteratie herhalen, wordt veruit het grootste deel van de tijd
besteedt aan de backprojectie. Deze neemt 60 tot zelfs meer dan 90 % van de reconstructietijd in
beslag. Bij OS-SART, SART en OS-EM duurt deze backprojectie stap het langst, bijna dubbel
zo lang als deze bij ISRA en MLTR. Dit volgt wederom onmiddelijk uit hun respectievelijke
formules. OS-SART, SART en OS-EM hebben immers een normalisatiestap na de backprojectie
(de tijd die deze inneemt is ingecalculeerd bij de update stap). Om deze normalisatie te kunnen
Hoofdstuk 3. Resultaten 49
Figuur 3.39: Tijdskost van de verschillende onderdelen van SART
Figuur 3.40: Tijdskost van de verschillende onderdelen van OS-EM
Hoofdstuk 3. Resultaten 50
Figuur 3.41: Tijdskost van de verschillende onderdelen van ISRA
Figuur 3.42: Tijdskost van de verschillende onderdelen van MLTR
Hoofdstuk 3. Resultaten 51
uitvoeren, moet echter tijdens de backprojectie ook al deze normalisatiecoefficienten berekend
worden. Het is het berekenen van deze coefficienten dat verantwoordelijk is voor het verschil
in tijd. Dit verschil wordt echter gecompenseerd doordat zowel MLTR als ISRA twee maal
een backprojectie moeten uitvoeren; een keer op de gemeten data en een keer op de berekende
data. In principe zou de backprojectie van de gemeten data op voorhand kunnen berekend
worden. Echter, zoals eerder al vermeld werd in 1.3.2, neemt een afbeelding ongeveer 512 MiB
in beslag. Aangezien zo’n afbeelding moet berekend worden per subset en er gewerkt wordt
met 256 subsets, zouden al deze afbeeldingen 128 GiB in beslag nemen. Dit is onhandelbaar
veel data, vandaar de keuze om de backprojectie van elke subset telkens te gaan herberekenen.
Wanneer echter gewerkt zou worden met 1 enkele subset die alle projecties bevat, is het wel
doenbaar om de backprojectie op voorhand te berekenen. Mits gebruik van een grafische kaart
met nog net iets meer on-board geheugen1, zou het zelfs mogelijk zijn om MLTR en ISRA
volledig te laten draaien op de GPU.
Er kan dus geconcludeerd worden dat de backprojectie nog het meeste ruimte heeft voor op-
timalisatie. Deze stap neemt veruit het meeste tijd in beslag en het optimaliseren ervan zal
dan ook de grootste impact hebben op de uitvoeringstijd. Voorts kunnen ISRA en MLTR nog
enorm versneld worden, door de terugkerende kost van het berekenen van de backprojectie van
de gemeten data te veranderen in een eenmalige kost.
1Een andere mogelijkheid zou zijn om het aantal projecties iets te verlagen, aangezien dan geheugen vrijkomt
dat gebruikt wordt voor het berekenen van de projecties.
Hoofdstuk 4
Conclusie
4.1 Bespreking van de algoritmes
OS-SART
OS-SART is een van de algoritmes die zeer goed presteert op het gebied van ruis en con-
trast. Voor beide parameters geeft het de op een na beste resultaten –beter dan analytische
reconstructie– gesteld dat vertrokken wordt van een low-pass startbeeld. Wanneer gestart wordt
van een random startbeeld daarentegen, liggen de resultaten een heel stuk lager. Op gebied van
spatiale resolutie is OS-SART een van de algoritmes die het het slechtste doen. Ongeacht het
startbeeld waarvan vertrokken wordt, levert OS-SART consequent een van de hoogste FWHM.
Ook qua snelheid behoort OS-SART niet tot de beste algoritmes, met voor zowat elk startbeeld
een uitvoeringstijd die toch enkele minuten verschilt met deze van het snelste algoritme.
SART
SART doet het een stuk minder goed dan OS-SART waar het ruis en contrast betreft. Enkel voor
het random startbeeld geeft SART het beste resultaat voor ruisbestendigheid, maar aangezien
de SNR voor dit startbeeld sowieso al een heel stuk onder deze van de overige startbeelden ligt,
is dit amper een overwinning te noemen. Op gebied van spatiale resolutie doet SART het iets
beter, met de beste FWHM voor de centrale draad van het fantoom. Voor de off-center draad
behoort het algoritme echter weer tot de minder goede resultaten en ook zijn uitvoeringstijd is
verscheidene minuten trager dan deze van de snellere algoritmes.
OS-EM
OS-EM kan zowat beschouwd worden als het minst goede algoritme dat in dit werk aan bod
kwam. Het scoort op geen enkele parameter echt goed en levert vaak zelfs de slechtste resultaten.
Enkel de spatiale resolutie geeft voor een paar combinaties goede resultaten, maar dit wordt
grotendeels teniet gedaan door de hoge ruis. Qua tijd is OS-EM ongeveer even snel als OS-
SART, dus ook enkele minuten trager dan het snelste algoritme.
52
Hoofdstuk 4. Conclusie 53
ISRA
ISRA scoort vrij goed all-round, met vooral uitstekende resultaten voor spatiale resolutie. Het
is het enige algoritme dat voor deze parameter ongeveer dezelfde resultaten kan opleveren als
analytische reconstructie voor de centrale draad en significant betere resultaten voor de off-
center draad. Het contrast en de ruisgevoeligheid van ISRA zijn zeker niet de beste, maar
liggen toch ongeveer in de lijn van de analytische reconstructie. Wanneer gestart wordt van
een multiresolutioneel startbeeld zijn de resultaten voor ruis en contrast zelfs net iets beter dan
analytische reconstructie. Ook qua uitvoeringstijd doet ISRA het lang niet slecht met voor elk
startbeeld de op een na beste tijd. Hier komt nog eens bij dat ISRA nog redelijk wat marge
heeft voor optimalisatie van de uitvoeringstijd.
MLTR
MLTR is met voorsprong het beste algoritme voor ruis en contrast. In het bijzonder in combi-
natie met een multiresolutioneel startbeeld haalt MLTR resultaten die dubbel zo hoog liggen als
deze van analytische reconstructie en nog een derde hoger dan deze van OS-SART. MLTR heeft
ook de snelste uitvoeringstijd met, net als ISRA, nog redelijk wat marge voor optimalisatie.
Enkel bij de spatiale resolutie scoort MLTR minder goed, met resultaten die gemiddeld toch een
50-tal µm hoger liggen dan het beste resultaat.
4.2 Eindbeschouwing
Uit dit werk kunnen een aantal duidelijke trends afgeleid worden. Allereerst kan gesteld worden
dat low-pass startbeelden ruim te verkiezen zijn boven high-pass startbeelden, in het bijzonder
in het geval van ruis en contrast. Het FBP startbeeld en zeker het multiresolutioneel startbeeld
geven de algoritmes een redelijke verbetering voor ruis en contrast. Als er echter tussen die twee
gekozen dient te worden, gaat de voorkeur uiteraard uit naar het multi-resolutionele startbeeld,
aangezien dit een heel stuk sneller te genereren valt dan een FBP startbeeld. Voor spatiale
resolutie hebben de startbeelden blijkbaar veel minder invloed op de resultaten.
Bij de algoritmes zijn er twee die beter presteren dan de rest: ISRA en MLTR. Beide zijn
ongeveer even snel en hebben elk hun specialisatie. Wanneer ruisbestendigheid en contrast van
belang zijn, zal MLTR in combinatie met het multiresolutionele startbeeld veruit de beste keuze
zijn, met resultaten die analytische reconstructie ver achter zich laten. ISRA presteert dan weer
goed op gebied van spatiale resolutie. Centraal in de reconstructie is de spatiale resolutie van
ISRA ongeveer even goed als deze van analytische reconstructie en aan de rand is ze net iets
beter. De goede spatiale resolutie wordt echter overschaduwd door de slechte ruisbestendigheid.
Tijdens het aantal iteraties dat nodig is voor een goede spatiale resolutie wordt zodanig veel
ruis geıntroduceerd dat MLTR, dat een minder goede spatiale resolutie heeft, visueel een stuk
beter oogt.
De uitvoeringstijden liggen nog steeds dubbel zo hoog als bij analytische reconstructie het geval
is, maar ze zijn niet meer onhandelbaar groot. Een 15 a 20 minuten voor een reconstructie van
ISRA en MLTR is zeker aanvaardbaar. In het bijzonder wanneer er rekening mee gehouden wordt
Hoofdstuk 4. Conclusie 54
dat de performantie van beide algoritmes nog ruimte heeft voor verbetering. In het bijzonder de
backprojecties, die afhankelijk van het algoritme 60 tot 90% van de reconstructietijd in beslag
nemen, kunnen nog verbeterd worden. Desondanks kunnen iteratieve reconstructietechnieken
in de toekomst zeker als valabel alternatief beschouwd worden voor analytische reconstructie.
Bibliografie
[1] J. Radon, “Uber die Bestimmung von Funktionen durch ihre Integralwerte langs gewisser
Mannigfaltigkeiten,” Berichte uber die Verhandlungen der Sachsische Akademie der Wis-
senschaften, vol. 69, pp. 262 – 277, 1917.
[2] J. Radon, “On the determination of functions from their integral values along certain ma-
nifolds,” IEEE Trans. Med. Imag, vol. 5, pp. 170 –176, dec. 1986.
[3] A. Beer, “Bestimmung der Absorption des rothen Lichts in farbigen Flussigkeiten,” Annalen
der Physik und Chemie, vol. 86, pp. 78–88, 1852.
[4] J. Lambert, Photometria sive de mensura et gradibus luminis, colorum et umbrae. 1760.
[5] R. A. Brooks and G. D. Chiro, “Beam hardening in x-ray reconstructive tomography,”
Physics in Medicine and Biology, vol. 21, no. 3, p. 390, 1976.
[6] K. Ramakrishna, K. Muralidhar, and P. Munshi, “Beam-hardening in simulated x-ray to-
mography,” NDT E International, vol. 39, no. 6, pp. 449–457, 2006.
[7] D. W. Holdsworth and M. M. Thornton, “Micro-CT in small animal and specimen imaging,”
Trends in biotechnology, vol. 20, no. 8, pp. S34–S39, 2002.
[8] C. T. Badea, M. Drangova, D. W. Holdsworth, and G. A. Johnson, “In Vivo Small Animal
Imaging using Micro-CT and Digital Subtraction Angiography,” Physics in Medicine and
biology, vol. 53, no. 19, pp. R319–, 2008.
[9] N. L. Ford, M. M. Thornton, and D. W. Holdsworth, “Fundamental Image Quality Limits
for Microcomputed Tomography in Small Animals.,” Med Phys, vol. 30, no. 11, pp. 2869–77,
2003.
[10] S. Vandenberghe, H. Hallez, R. Declerck, and J. Cornelis, Biomedical Signals and Images.
2009.
[11] L. A. Feldkamp, L. C. Davis, and J. W. Kress, “Practical cone-beam algorithm,” J. Opt.
Soc. Am. A, vol. 1, pp. 612–619, June 1984.
[12] D. Parker, “Optimal short scan convolution reconstruction for fan beam CT,” Med Phys,
vol. 9, pp. 254–257, 1982.
[13] M. N. Wernick and J. N. Aarsvold, Emission Tomography, The Fundamentals of PET and
SPECT. Elsevier, 2004.
55
Bibliografie 56
[14] Q. Huang, Z. Huang, P. Werstein, and M. Purvis, “GPU as a General Purpose Computing
Resource,” in Parallel and Distributed Computing, Applications and Technologies, 2008.
PDCAT 2008. Ninth International Conference on, pp. 151–158, 2008.
[15] J. D. Owens, M. Houston, D. Luebke, S. Green, J. E. Stone, and J. C. Phillips, “GPU
Computing,” Proceedings of the IEEE, vol. 96, pp. 879–899, May 2008.
[16] NVIDIA, NVIDIA CUDA Programming Guide 2.0. 2008.
[17] M. Hudson and R. Larkin, “Accelerated Image Reconstruction using Ordered Subsets of
Projection Data,” IEEE Trans. Med. Imag, vol. 13, pp. 601–609, 1994.
[18] J.-X. Pan, T. Zhou, Y. Han, and M. Jiang, “Variable Weighted Ordered Subset Image
Reconstruction Algorithm,” Int. J. Biomedical Imaging, vol. 2006, pp. 1–7, 2006.
[19] G. Wang and M. Jiang, “Ordered-Subset Simultaneous Algebraic Reconstruction Techni-
ques (OS-SART),” Journal of X-Ray Science and Technology, vol. 12, no. 3, pp. 167–177,
2004.
[20] A. H. Andersen and A. C. Kak, “Simultaneous algebraic reconstruction technique (SART): a
superior implementation of the art algorithm,” Ultrasonic Imaging, vol. 6, no. 1, pp. 81–94,
1984.
[21] R. Gordon, R. Bender, and G. T. Herman, “Algebraic reconstruction techniques (ART)
for three-dimensional electron microscopy and x-ray photography,” Journal of Theoretical
Biology, vol. 29, no. 3, pp. 471–481, 1970.
[22] S. Kaczmarz, “Angenaherte Auflosung von Systemen linearer Gleichungen,” Bulletin Inter-
national de l’Academie Polonaise des Sciences et des Lettres, vol. 35, pp. 355–357, 1937.
[23] A. P. Dempster, N. M. Laird, and D. B. Rubin, “Maximum Likelihood from Incomplete Data
via the EM Algorithm,” Journal of the Royal Statistical Society. Series B (Methodological),
vol. 39, no. 1, pp. 1–38, 1977.
[24] L. A. Shepp and Y. Vardi, “Maximum Likelihood Reconstruction for Emission Tomo-
graphy,” IEEE Trans. Med. Imag, vol. 1, no. 2, pp. 113–122, 1982.
[25] R. A. Fisher, “On the probable error of a coefficient of correlation deduced from a small
sample,” Metron, vol. 1, pp. 3–32, 1921.
[26] H. Guan and R. Gordon, “Computed tomography using algebraic reconstruction techni-
ques (ARTs) with different projection access schemes: a comparison study under practical
situations,” Physics in Medicine and Biology, vol. 41, pp. 1727–1743, 1996.
[27] M. E. Daube-Witherspoon and G. Muehllehner, “An Iterative Image Space Reconstruction
Algorthm Suitable for Volume ECT,” IEEE Trans. Med. Imag, vol. 5, pp. 61–66, june 1986.
[28] D. M. Titterington, “On the Iterative Image Space Reconstruction Algorithm for ECT,”
IEEE Trans. Med. Imag, vol. 6, pp. 52–56, march 1987.
Bibliografie 57
[29] J. Han, L. Han, M. Neumann, and U. Prasad, “On the Rate of Convergence of the Image
Space Reconstruction Algorithm,” Operators and Matrices, vol. 3, no. 1, pp. 41–58, 2009.
[30] J. Nuyts, B. De Man, P. Dupont, M. Defrise, P. Suetens, and L. Mortelmans, “Iterative
reconstruction for helical CT: a simulation study,” Physics in Medicine and Biology, vol. 43,
no. 4, pp. 729–737, 1998.
[31] J. M. Meagher, C. D. Mote, and H. B. Skinner, “CT Image Correction for Beam Hardening
Using Simulated Projection Data,” IEEE Trans. Nucl. Sci, pp. 1520–1524, august.
[32] B. De Man, J. Nuyts, P. Dupont, G. Marchal, and P. Suetens, “An Iterative Maximum-
Likelihood Polychromatic Algorithm for CT,” IEEE Trans. Med. Imag, vol. 20, no. 10,
pp. 999–1008, 2001.
[33] C. Lemmens, D. Faul, and J. Nuyts, “Suppression of Metal Artifacts in CT Using a Recon-
struction Procedure That Combines MAP and Projection Completion,” IEEE Trans. Med.
Imag, vol. 28, no. 2, pp. 250–260, 2009.
[34] W. Kalender, O. Durkee, B. andLangner, E. Stepina, and M. Karolczak
[35] A. Rose, “The Sensitivity Performance of the Human Eye on an Absolute Scale,” J. Opt.
Soc. Am., vol. 38, pp. 196–208, Feb. 1948.
[36] O. Fuchs, J. Krause, and W. Kalender, “Measurement of 3D Spatial Resolution in Multis-
clice Spiral Computed Tomography,” Physica Medica, no. 17, pp. 129–134, 2001.