Abstract
Purpose Detection and validation of the chest X-ray view position with use of convolutional
neural networks to improve meta-information for data cleaning within a hospital data
infrastructure.
Material and Methods Within this paper we developed a convolutional neural network which automatically
detects the anteroposterior and posteroanterior view position of a chest radiograph.
We trained two different network architectures (VGG variant and ResNet-34) with data
published by the RSNA (26 684 radiographs, class distribution 46 % AP, 54 % PA) and
validated these on a self-compiled dataset with data from the University Hospital
Essen (4507, radiographs, class distribution 55 % PA, 45 % AP) labeled by a human
reader. For visualization and better understanding of the network predictions, a Grad-CAM
was generated for each network decision. The network results were evaluated based
on the accuracy, the area under the curve (AUC), and the F1-score against the human
reader labels. Also a final performance comparison between model predictions and DICOM
labels was performed.
Results The ensemble models reached accuracy and F1-scores greater than 95 %. The AUC reaches
more than 0.99 for the ensemble models. The Grad-CAMs provide insight as to which
anatomical structures contributed to a decision by the networks which are comparable
with the ones a radiologist would use. Furthermore, the trained models were able to
generalize over mislabeled examples, which was found by comparing the human reader
labels to the predicted labels as well as the DICOM labels.
Conclusion The results show that certain incorrectly entered meta-information of radiological
images can be effectively corrected by deep learning in order to increase data quality
in clinical application as well as in research.
Key Points:
-
The predictions for both view positions are accurate with respect to external validation
data.
-
The networks based their decisions on anatomical structures and key points that were
in-line with prior knowledge and human understanding.
-
Final models were able to detect labeling errors within the test dataset.
Citation Format
Zusammenfassung
Ziel Detektion der Röntgen-Thorax-Aufnahmeposition anhand von Convolutional Neural Networks
zur Verbesserung und Bereinigung von Metainformationen innerhalb der Dateninfrastruktur
eines Krankenhauses.
Material und Methoden Innerhalb dieser Studie wurde ein Convolutional Neural Network entwickelt, das automatisch
die verwendete Anterior-posterior- bzw. Posterior-anterior-Aufnahmeprojektion einer
Röntgen-Thoraxaufnahme erkennt. Es wurden 2 unterschiedliche Netzwerkarchitekturen
(VGG Variante und ResNet-34) auf Basis von Daten der RSNA (26 684 Röntgenaufnahmen,
Klassenverteilung: 46 % AP, 54 % PA) trainiert und anschließend auf einem zusammengestellten
hauseigenen Datensatz (Verwendung von manuellen Labeln) aus dem Datenbestand des Universitätsklinikums
Essen (4507 Röntgenaufnahmen, Klassenverteilung: 55 % PA, 45 % AP) getestet. Für eine
bessere Nachvollziehbarkeit der getätigten Vorhersagen der Modelle wurde zudem für
jede Vorhersage eine Grad-CAM generiert. Die Resultate der Modelle wurden anhand der
Accuracy, der Area under the Curve (AUC) und dem F1-Score berechnet auf Basis des
Abgleichs der manuellen Label. Abschließend wurde zudem die Genauigkeit der Modellvorhersagen
und der DICOM-Label anhand des Vergleichs mit den manuellen Labeln berechnet.
Ergebnisse Die zusammengefassten Modelle erreichten Accuracy- und F1-Score-Werte von mehr als
95 %. Alle Modelle erreichten eine AUC von über 0,99. Die generierten Grad-CAMSs zeigen,
dass die Modelle relevante anatomische Referenzpunkte für ihre Vorhersage nutzen,
die auch ein Radiologe für eine Unterscheidung heranziehen würde. Zudem zeigen die
antrainierten Modelle die Fähigkeit zur Generalisierung, da diese auch falsch gekennzeichnete
Röntgenbilder richtig einordnen können, was durch den Vergleich der manuellen Label
mit den jeweiligen Modellvorhersagen und den DICOM-Labeln ersichtlich wurde.
Schlussfolgerung Die Resultate zeigen, dass falsch eingetragene Metainformationen innerhalb der radiologischen
Bildgebung effektiv durch den Einsatz von Deep Learning korrigiert und somit die Datenqualität
sowohl für die klinische Anwendung als auch für die Forschung erhöht werden können.
Kernaussagen:
-
Die trainierten Modelle erzielen akkurate Vorhersagen auf externen Validierungsdaten.
-
Die Netzwerke treffen ihre Vorhersagen basierend auf anatomischen Strukturen und Referenzpunkten,
die mit dem menschlichen Fachwissen übereinstimmen.
-
Die finalen Modelle konnten Label-Fehler in dem Testdatensatz finden.
Key words
radiography - deep learning - anteroposterior - posteroanterior - error correction
- X-ray