Fortschr Röntgenstr 2019; 191(08): 761-763
DOI: 10.1055/a-0875-9036
DRG-Mitteilungen
© Georg Thieme Verlag KG Stuttgart · New York

„Die Daten sind das Programm“

Further Information

Publication History

Publication Date:
25 July 2019 (online)

 

    Ranga Yogeshwar ist einer der renommiertesten Wissenschaftsjournalisten in Deutschland. Auf dem 100. Deutschen Röntgenkongress 2019 hielt er im Rahmen der Eröffnungsveranstaltung die Keynote zum Thema Künstliche Intelligenz. Was uns Menschen von Maschinen unterscheidet, wie künstliche Intelligenz unser Leben verändern kann und welche Rolle den Radiologen und Radiologinnen dabei zukommt, erläutert er im Interview.


    #
    Zoom Image
    Ranga Yogeshwar

    Herr Yogeshwar, Industrie 4.0, Arbeit 4.0, jetzt Radiologie 4.0 – Können Sie mit solchen plakativen Labeln eigentlich etwas anfangen?

    Die Konnotation 4.0 wird inzwischen gerne verwendet, um Fortschritt zu dokumentieren, um zu sagen, da passiert etwas Neues. Aber man muss natürlich in jedem Feld genauer hinschauen und fragen, was sich denn im Einzelnen verändert. Wenn man sich die Radiologie mit ihren bildgebenden Verfahren vor Augen führt und im Detail betrachtet, was da im Bereich Machine Learning, neuronale Netze, Bildverarbeitung et cetera passiert, erkennt man im wahrsten Sinne des Wortes auf den ersten Blick, dass sich hier große Veränderungen ankündigen.

    Hinter 4.0 steht insbesondere die Entwicklung und Anwendung von Künstlicher Intelligenz. Geht es dabei im Kern immer darum, dass Maschinen die Menschen bei der Arbeit nicht nur unterstützen, sondern sie nach und nach ersetzen?

    Das ist der nächste, übernächste Schritt, der aber noch weit weg ist. Viele Menschen neigen dazu, neue technische Entwicklungen mit großem Enthusiasmus voranzutreiben und das Bisherige schnell für obsolet zu erklären. Bereits heute gibt es neuronale Netze, die sich dem menschlichen Leistungsniveau nähern, die also beispielsweise in der Lage sind, Auffälligkeiten in Mammografien zu identifizieren. Darüber lesen wir derzeit viel, solche Themen rufen eine hohe Aufmerksamkeit hervor. Künstliche Intelligenz, was auch immer damit gemeint ist, öffnet aber zunächst einmal Fenster zu vielen neuen Fragestellungen, und wir müssen uns genau überlegen, wie wir damit umgehen. Spannend ist etwa, dass ein Großteil der Radiologen die zugrunde liegende Technik, also die algorithmischen Systeme, nicht im Detail versteht. Das heißt, im Moment bauen oftmals medizinische Laien solche Systeme. Denen fehlt aber genau das, was Radiologen haben, nämlich den Kontakt zu den Patienten, ein echtes Verständnis der Fachdisziplin und das notwendige medizinische Hintergrundwissen.

    Stellen Sie sich vor, beim Mammografie-Screening kommt künftig statt des Vier-Augen-Prinzips das „KI-plus-ein-Radiologe-Prinzip“ zum Einsatz. Was halten Sie davon?

    Wir werden dann zum Beispiel über Konflikte reden müssen. Was passiert, wenn ein algorithmisches System einen bösartigen Tumor erkennt, der Arzt jedoch mit all seiner Erfahrung zu einem gegenteiligen Schluss kommt? Wie werden wir diesen Konflikt lösen? Und was passiert mit dem Arzt, wenn er den Patienten vielleicht nicht oder anders behandelt und am Ende erweist sich seine Vorgehensweise als falsch? Und umgekehrt: Was passiert mit der Maschine, wenn sich plötzlich zeigt, dass ihre Prognose falsch war? Das ist eine Sache, die wir sehr klar aushandeln müssen: Wer trägt die Verantwortung? Das betrifft nicht nur die Radiologie. Denken Sie an autonome Fahrzeuge. Wer trägt hier die Verantwortung? Ist es der Mensch, der im Auto sitzt, oder der Computer? Hinzu kommt, dass die Idee vom Vier- oder Sechs-Augen-Prinzip in den nächsten Jahren möglicherweise überholt ist. Warum? Weil Künstliche Intelligenz eben nicht nur sehr spezifisch ein Feld angeht, sondern in viele andere Bereiche hineinstreut und zum Beispiel Indikatoren für Krankheiten vielleicht von ganz anderer Seite kommen können. Ich gebe Ihnen zwei Beispiele: Ende 2018 wurde publiziert, dass man mit Hilfe der Bilderkennung bei Porträts bestimmte genetische Krankheiten identifizieren kann. Und Max Little von der Aston University hat mit einem System für akustische Analysen und Sprache nachweisen können, dass allein durch die Sprache zum Beispiel die Okkurrenz von Parkinson mit einer doch sehr erstaunlichen Trefferquote nachgewiesen werden kann. Wir werden in den nächsten Jahren mit einer neuen Form von Medizin konfrontiert werden, die weit über das eigene Feld hinausgeht und die möglicherweise anhand von ganz vielen verschiedenen korrelierten Daten zum Beispiel die Aussage trifft, dass eine Frau Brustkrebs hat, obwohl noch nicht einmal eine Mammografie erstellt wurde.

    (…)

    Lesen Sie das vollständige Interview auf https://www.drg.de/de-DE/5327/kuenstliche-intelligenz/

    Zoom Image
    [rerif]

    #

    Zoom Image
    Ranga Yogeshwar
    Zoom Image
    [rerif]