Rofo 2021; 193(S 01): S2
DOI: 10.1055/s-0041-1723131
Vortrag (Wissenschaft)
Bildverarbeitung/IT/Software

Verlaufsbeurteilung maligner Tumore mit iRECIST: Manuelle vs. Software-unterstützte Beurteilung in einem Multireader Setup

M Sauer
Universitätsklinikum Hamburg Eppendorf, Diagnostische und Interventionelle Radiologie und Nuklearmedizin, Hamburg
,
M Warncke
Universitätsklinikum Hamburg Eppendorf, Diagnostische und Interventionelle Radiologie und Nuklearmedizin, Hamburg
,
L Well
Universitätsklinikum Hamburg Eppendorf, Diagnostische und Interventionelle Radiologie und Nuklearmedizin, Hamburg
,
N Wiese
Universitätsklinikum Hamburg Eppendorf, Diagnostische und Interventionelle Radiologie und Nuklearmedizin, Hamburg
,
G Adam
Universitätsklinikum Hamburg Eppendorf, Diagnostische und Interventionelle Radiologie und Nuklearmedizin, Hamburg
,
P Bannas
Universitätsklinikum Hamburg Eppendorf, Diagnostische und Interventionelle Radiologie und Nuklearmedizin, Hamburg
› Author Affiliations
 
 

    Zielsetzung Vergleich von Interobserver-Agreement und Zeitaufwand der Beurteilung maligner Tumoren anhand der „immune Reponse Evaluation Criteria in solid Tumors“ (iRECIST) mithilfe manueller vs. Software-unterstützter Verfahren durch mehrere Untersucher.

    Material und Methoden Vier unabhängige Radiologen beurteilten retrospektiv die Computertomographien von 30 Tumorpatienten und definierten nach der Baseline für je zwei Follow-Ups (FU1, FU2) insgesamt 240 Timepoint Responses (TR): iComplete Remission, iPartial Remission, iStable Disease, iuProgressive Disease, oder icProgressive Disease. Jeder Reader berechnete manuell die TR und die Summe der längsten Diameter (SLD) für die eine Hälfte der Patienten und nutze für die andere Hälfte eine semi-automatische Beurteilungssoftware, welche die TR und SLD automatisch berechnet. Verglichen wurde die Rate falscher, vom Referenzstandard abweichender TRs (in %), das Interobserver-Agreement (Intraclass Correlation Coefficient (ICC)) für die SLD, sowie die für die Auswertung notwendige Zeit. Als Referenzstandard diente ein abschließendes Consensus Reading aller Reader nach abgeschlossener Datenerfassung.

    Ergebnisse Die Rate falscher TRs lag bei manueller Beurteilung signifikant höher als bei Software-unterstützter Beurteilung (7,5% vs. 0,8%; p = 0,04). Das Agreement der Reader hinsichtlich der SLD war bei der manuellen niedriger als bei der Software-unterstützten Beurteilung und nahm bei beiden Methoden von FU1 zu FU2 ab (FU1: ICC = 0,91 vs. 0,93; FU2: ICC = 0,75 vs. 0,86). Die manuelle dauerte signifikant länger als die Software-unterstützte Beurteilung (FU1: 4,7 ± 1,0 min vs. 2,8 ± 1,2 min, p < 0,0001; FU2: 2,3 ± 0,8 min vs. 3,9 ± 0,8 min; p < 0,0001).

    Schlussfolgerungen Manuelle Beurteilungen gemäß iRECIST sind im Vergleich zu Software-unterstützten Beurteilungen zeitaufwendiger und weisen eine höhere, mit fortschreitender Therapiedauer zunehmende Fehlerrate auf. Die Software-unterstützte Beurteilung bietet somit die akkuratere Einschätzung der Tumorentwicklung und sollte routinemäßig eingesetzt werden.


    #

    Publication History

    Article published online:
    11 May 2021

    © 2021. Thieme. All rights reserved.

    Georg Thieme Verlag KG
    Rüdigerstraße 14, 70469 Stuttgart, Germany