Zusammenfassung
Hintergrund
Sprachbasierte KI-Modelle bieten neue Möglichkeiten zur Optimierung
klinischer Prozesse. Die postoperative Dokumentation in der Chirurgie –
insbesondere die Kodierung und Festlegung des postoperativen Prozederes –
stellen dabei ein potenzielles Anwendungsfeld dar. Ziel dieser Studie war
die Evaluation der Leistungsfähigkeit eines KI-Modells bei der
automatisierten Erstellung dieser Dokumentation.
Material und Methoden
Vier standardisierte Operationsberichte häufig durchgeführter handchirurgisch
bzw. plastisch-chirurgischer Eingriffe wurden ChatGPT o3 zur Kodierung der
Prozeduren sowie zur Formulierung eines postoperativen Prozederes vorgelegt.
Die Kodierung wurde anhand der Korrektheit und Vollständigkeit beurteilt.
Das postoperative Prozedere wurde von drei Fachärzten für Plastische und
Ästhetische Chirurgie anhand der Kriterien Korrektheit, Vollständigkeit und
Gesamtbewertung auf einer Likert-Skala von 1 (sehr schlecht) bis 10 (sehr
gut) bewertet. Zusätzlich wurde der Zeitaufwand in Sekunden erfasst.
Ergebnisse
Das KI-Modell erreichte eine durchschnittliche Kodierkorrektheit von
92,86±14,29% und eine Vollständigkeit von 90,28±11,45%. Die Bewertung des
postoperativen Prozederes ergab eine durchschnittliche Vollständigkeit von
7,33±2,10, Korrektheit von 8,66±0,98 und eine Gesamtbewertung von 7,83±1,53.
Die mittlere Bearbeitungsdauer betrug 143,75±46,61 Sekunden für die
Kodierung und 24,25±11,35 Sekunden für die Erstellung des postoperativen
Prozederes.
Schlussfolgerung
KI-Modelle zeigen vielversprechende Ergebnisse in der automatisierten
postoperativen Dokumentation handchirurgischer und plastisch-chirurgischer
Eingriffe. Insbesondere bei standardisierten Eingriffen kann das Modell
durch hohe Genauigkeit, klinisch relevante Empfehlungen und schnelle
Bearbeitung überzeugen. Eine fachliche Kontrolle ist jedoch weiterhin immer
erforderlich.
Abstract
Background
Language-based artificial intelligence (AI) models offer novel opportunities
for optimising clinical workflows. One promising application lies in the
automation of postoperative documentation in hand and plastic surgery –
specifically, procedural coding and the formulation of postoperative care
plans. This study aimed to evaluate the performance of AI models in
generating postoperative documentation for hand surgery and plastic surgery
procedures.
Methods
Four standardised operative reports representing common plastic surgical
interventions were submitted to ChatGPT o3. The model was prompted to
generate procedural codes and to propose appropriate postoperative care
recommendations. Coding output was evaluated for accuracy and completeness,
while postoperative plans were assessed by three board-certified plastic
surgeons using predefined criteria – correctness, completeness, and overall
quality – on a 10-point Likert scale (1=very poor, 10=excellent). The time
to task completion was recorded in seconds.
Results
The AI model achieved a mean coding accuracy of 92.86±14.29% and a
completeness score of 90.28±11.45%. Postoperative care recommendations
received mean ratings of 7.33±2.10 for completeness, 8.66±0.98 for
correctness, and 7.83±1.53 for overall quality. The mean time required for
procedural coding was 143.75±46.61 seconds, while postoperative planning
required 24.25±11.35.
Conclusion
AI models demonstrate promising results in automating postoperative
documentation within the field of hand and plastic surgery. Their high
coding accuracy, clinically relevant recommendations, and rapid processing
make them particularly effective for standardised procedures. Nevertheless,
expert review remains essential.
Schlüsselwörter
ChatGPT - Künstliche Intelligenz - Kodierung - postoperative Dokumentation
Keywords
ChatGPT - artificial intelligence - postoperative documentation - Coding