Nuklearmedizin 2022; 61(02): 75-77
DOI: 10.1055/a-1780-1453
Liebe Leser

Medizinphysik

 

In den vergangenen 20 Jahren wurden im Bereich nuklearmedizinischer Instrumentierung und Bildrekonstruktion sowie Datenanalyse neue Möglichkeiten genutzt, um völlig neue Ansätze in die Anwendung zu bringen. Die grundlegenden Ideen zu diesen Entwicklungen sind meist nicht neu und wurden schon vor vielen Jahren erörtert, wie z. B. Überlegungen zur kompletten Raumwinkelabdeckung eines PET-Scanners durch Kugelgeometrie, die schon 1982 vorgeschlagen wurden. Der Durchbruch von der Idee über experimentelle Prototypen bis zu Anwendungen (Geräte oder Algorithmen) konnte nur aufgrund von Entwicklungen in Sensorik, Elektronik, Datenverarbeitung und den inzwischen breit etablierten Methoden des maschinellen Lernens erreicht werden. Hierbei ist zu betonen, dass eine erfolgreiche Implementierung in die nuklearmedizinische Routine nur dann gelingen kann, wenn schon in einer frühen Phase eine enge Zusammenarbeit zwischen Physik, Technik und Medizin aktiv gepflegt wird. Unbestritten ist auch, dass die enge Zusammenarbeit zwischen den Anwendern und dem Hersteller, der ein neues Produkt einführt, essenziell ist. Der Abgleich der technischen und algorithmischen Möglichkeiten einer Innovation mit den klinischen Erwartungen und Möglichkeiten kann ein anstrengender, iterativer Prozess sein, ist aber Voraussetzung für den Erfolg. Vertrauen und Zusammenarbeit auf Augenhöhe zwischen Medizin, Informatik und Physik in gemischten Arbeitsgruppen direkt in der Klinik bilden hierfür das beste Umfeld, wenn gleichzeitig der intensive Austausch mit Grundlageninstituten gepflegt wird, um Chancen für neue Methoden in der Nuklearmedizin zu erkennen.

Was waren nun die spannenden Entwicklungen in den vergangenen Jahren?

Sicher ist „digital“ in den vergangenen Jahren das am häufigsten benutzte Schlagwort zur Beschreibung der technischen Neuheiten in der Nuklearmedizin, obwohl die nuklearmedizinische Instrumentierung schon lange mit digitalisierten Signalen arbeitet. Vielmehr sind damit meistens die jüngsten Detektorentwicklungen gemeint. Der Fortschritt liegt in der genauen Stelle, an der in der Signalkette einer Digitalisierung stattfindet. Dabei wurden in den letzten 20 Jahren 2 grundsätzlich unterschiedliche Ansätze für den Nachweis von Gammastrahlung vorangegangener Grundlagenentwicklungen in der Kern- und Hochenergiephysik bis zu Medizinprodukten verfolgt. Der Vorteil des direkten Nachweises in einem Halbleiterdetektor mit ausgezeichneter Energieauflösung für die Gammakamera gegenüber einem Szintillationssystem liegt auf der Hand. Praktikabel sind Raumtemperatur-Halbleiter wie CdTe oder CdZnTe. Erst die Produktion hochqualitativen Materials und die Anpassung der entsprechenden Elektronik erlaubten die Umsetzung in klinisch einsetzbare Gammakameras, wie sie in der Herzbildgebung Beachtung finden. Die Sensitivität für 511keV-Photonen und die Zeitauflösung sind allerdings ungünstig. Deshalb wird diese Detektorlösung für PET nicht favorisiert.

Insbesondere die Verfügbarkeit qualitativ hochwertiger Silizium-Photomultiplier (SiPM) hat die Entwicklung von PET-Detektoren maßgeblich beeinflusst. Geiger-Mode-Lawinenphotodioden (G-APD), das Herzstück der SiPMs, wurden schon Ende der 1980er-Jahre verwendet. Aber erst die Miniaturisierung und Verbindung vieler G-APDs zu 2D-Lichtsensoren eröffneten die Möglichkeit, Photomultiplierröhren (PMT) als Lichtsensoren im Szintillationsdetektor zu ersetzen. Dieses war keine leichte Aufgabe, auch wenn schon die ersten Versuche sehr vielversprechend waren. Inzwischen gibt es eine Reihe kommerzieller PET-Geräte, die auf SiPM-Lichtsensoren in Kombination mit schnellen und empfindlichen Szintillationskristallen basieren und eine hervorragende Charakteristik zeigen.

APDs, noch bevor SiPMs zur Verfügung standen, waren die Komponente, die eine simultane PET+MR-Akquisition Realität werden ließ. Während diese Kombination ihre Vorteile bei speziellen Untersuchungen und insbesondere in der Forschung hat, ist der Nutzen der Verbindung von PET mit CT unbestritten. Neben den offensichtlichen Vorteilen der Fusion der unterschiedlichen Informationen hat sich die CT-basierte Schwächungskorrektur nach intensiver Forschungs- und Entwicklungsarbeit so weit etabliert, dass wir sie inzwischen häufig als Goldstandard ansehen.

In den vergangenen Jahren wurde auch die Bedeutung der Kombination von SPECT mit CT immer deutlicher. Für die individuelle Dosimetrie nach Radionuklidtherapie sind quantitative SPECT-Messungen notwendig. Hierfür ist neben der möglichst genauen Kenntnis der Abbildefunktion der Gammakamera die CT-basierte Schwächungs- und Streukorrektur unerlässlich. Basierend auf Verbesserungen in diesem Bereich, in Kombination mit Algorithmen zur Segmentierung und Koregistrierung, entstanden in den letzten Jahren Software-Werkzeuge für die nuklearmedizinische Dosimetrie. In diesem Bereich zeigte sich, wie wichtig es ist, dass Physiker und Informatiker vor Ort mit den Nuklearmedizinern zusammenarbeiten. Nur so können theoretische Modelle, Datenverfügbarkeit und Workflow sinnvoll integriert werden.

Die Idee eines PET-Gerätes, das aufgrund seiner maximalen Raumwinkelabdeckung in Empfindlichkeitsbereiche vordringen kann, die Untersuchungen mit sehr geringer Aktivität zu ermöglichen, wurde 2019 im Explorer-Projekt bis zum klinischen Einsatz gebracht. Motiviert durch diesen Erfolg gibt es mehrere Aktivitäten und Produkte, die Total-Body-PET oder PET mit großem axialem Gesichtsfeld von 1–2 m liefern.

Die Total-Body-PET profitiert neben der sehr guten Skalierbarkeit von SiPM-basierten Detektoren auch von der Zeitauflösung. Der Zeitauflösungswert von 200ps entspricht einer Ortsauflösung entlang der Koinzidenzlinie von 3 cm. Das verbessert nicht direkt die Ortsauflösung im Tomografen. Die Information des Flugzeitunterschieds (TOF) in der Bildrekonstruktion führt aber zu einer Reduktion im Bildrauschen, was häufig mit einer effektiven Erhöhung der Systemempfindlichkeit gleichgesetzt wird. Auch TOF-PET ist keine neue Idee. Sie wurde in den 1980er-Jahren schon von Kurt Jordan in Hannover vorangetrieben und international in den frühen 1980er-Jahren in ersten Ringtomografen verwendet. Erst durch die Entwicklung geeigneter Szintillatoren, Lichtdetektoren und Elektronik sind sie praktisch anwendbar geworden.

Mit sehr guter Zeitauflösung und TOF in der Bildrekonstruktion eröffnen sich auch verbesserte Möglichkeiten für Systeme mit Teilring-Geometrie, wie sie für die In-beam-PET bei der Protonentherapie notwendig sind. Der Wettlauf zu einer immer besseren Zeitauflösung ist noch nicht beendet. Ob der Traum einer rekonstruktionsfreien PET-Bildgebung Realität werden kann, wird sich vielleicht in 20 Jahren zeigen. Sehr spannende Anstrengungen verfolgen wir aktuell an der UC Davis.

Neben der Frage nach kostengünstigen Total-Body-Geräten fokussieren sich Forschungs- und Entwicklungsarbeiten nun auf die Bilderstellung und Analyse der riesigen Datenmengen. Völlig neue Aspekte, die mit der bisherigen Geometrie nicht möglich waren, können nun untersucht werden. Das sind zum Beispiel: simultane Messung der Zeit-Aktivitäts-Verläufe in unterschiedlichen Organen als Basis einer Art Ganzkörper-Konnektivität, Messung unter Atemanhalten, mehrfache Messung auch über einen langen Zeitraum während des radioaktiven Zerfalls.

Beispielhaft fast trivial (so es die Metabolite im Blut nicht erschweren) ist die für kinetische Modellierung notwendige Messung der arteriellen Eingangsfunktion aus dem linken Ventrikel, wie sie bei Anwendungen am Herzen schon lange möglich war. Hier muss ein weiterer Aspekt bedacht werden, der in den letzten 20 Jahren an großer Bedeutung gewonnen hat: Die Größe der Datensätze in der Nuklearmedizin hat dramatisch zugenommen. So fallen bei einer typischen Aufnahme mit einem PET-Gerät von 1 m axialer Ausdehnung ca. 50 Gigabyte Rohdaten an, für eine dynamische Akquisition kann das bis zu 750 Gigabyte ansteigen. Die entsprechende IT-Infrastruktur wie Speichergröße, Verfügbarkeit von Archiven und Netzwerkgeschwindigkeit muss mit diesen Anforderungen Schritt halten. Nur so können neuen Entwicklungen in die klinische Realität integriert werden.

Künstliche Intelligenz (KI) mit den Verfahren maschinelles Lernen (ML) und Deep Learning (DL) hat auch in der Nuklearmedizin in den letzten Jahren rasant an Bedeutung gewonnen. An manchen Stellen ist KI so in die Verfahren integriert, dass wir es nicht wahrnehmen (z. B. Identifikation des Wechselwirkungsorts in einem Szintillationsdetektor oder Organ-Segmentierungsalgorithmen für CT- und PET-Daten). DL hat Eingang gefunden in Anwendungen wie Reduktion des Bildrauschens, Bildanalyse, Klassifikation, Modellerstellung zur Verlaufsprädiktion bis hin zur Detektor-Signalverarbeitung. KI bietet zum Beispiel auch ein großes Potenzial für die automatisierte individuelle Dosimetrie bei der Radionuklidtherapie. DL kann an unterschiedlichen Stellen im Prozess der Bildrekonstruktion verwendet werden. Besonders spannende Forschungsthemen sind DL-Verfahren, die direkt aus den Rohdaten quantitative Bilder erzeugen.

Die vergangenen 20 Jahre haben eine Reihe wirklich grundlegender neuer Entwicklungen aus der Medizinphysik und Informatik in die klinische Anwendung gebracht. Jede physikalisch/technische Entwicklung erfordert eine Validierung, bevor sie in den klinischen Einsatz kommen darf, und das umso intensiver, je komplexer das Verfahren ist. Dafür und damit das Potenzial dieser jungen Methoden voll genutzt werden kann, ist neben der täglichen Kommunikation zwischen Nuklearmedizin, Physik und Informatik eine adäquate Ausbildung notwendig. Für diese müssen geeignete Plattformen geschaffen werden.

Sibylle Ziegler, München


#
#

Publication History

Article published online:
06 April 2022

© 2022. Thieme. All rights reserved.

Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart, Germany