During the past century, our ability to perform complex calculations massively increased,
due to the availability of powerful processors, and diffuse, ubiquitious presence
of personal computers for home and professional applications. Many physicians are
worried by the application of Artificial Intelligence (AI) in medicine, envisioning
an Asimov science-fiction scenario. But is this real? What the AI use in medicine
and, particularly, ultrasonography actually entails?
AI refers to systems with the ability to “reason”, discover meaning, generalize, or
learn from past experience, thus able to perform tasks normally requiring human interaction.
Well-known examples of AI applications are self-driving automobiles or speech-recognition
softwares (that we all have embedded in our smartphones).
According to a U.S. Food and Drug Administration statement, AI-based technologies
have the potential to transform healthcare by deriving new and important insights
from the vast amount of data generated during the delivery of healthcare every day.
It is clear that one fundamental prerequisite is the availability of the so-called
“big data” [1]: they may be derived from clinical knowledge (e. g., electronic health records),
laboratory results, molecular data (e. g., OMICS data, such as genomics, trascriptomics,
proteomics), imaging (PACS-derived data from different modalities), and their integration.
In medical field, AI has already been used in drug discovery and design [2], drug interaction checks [3], molecular diagnostics, clinical decision support [4], and imaging [5]. The main novelty is the ability of AI applications of discerning patterns by scrutinizing
and analyzing massive amounts of stored digital information. These patterns may remain
unrecognized by the human reasoning and classical statistical analysis because may
involve variables not yet considered to be of interest, and not usually considered
in clinical reasoning or in statistical planning. While humans have abstract-thinking
ability, they are not able to find and visualize patterns embedded into large quantities
of multidimensional, apparently unrelated data. Even when humans do not apply personal
experience, but knowledge gained by the use of conventional statistical test, they
remain able to predict only outcomes that are well described by conventional mathematical
formulas. In real life many events that happen do not follow mathematical rules, but
are nonetheless not completely unpredictable. Rather, they cannot be predicted by
pre-ordered formulas, but nonetheless sometimes can be anticipated by exceptionally
intelligent persons or on other occasions by a “gut feeling”. However, also “gut feeling”
is somehow primed by previous experiences and is thus in a way a modality of extended
intelligence. Therefore, also some “gut feelings” can be potentially provided by tools
able to consider previous massive amounts of data and to interconnect them at incredible
speed. Potentially we will have no more the opinion of the “gut feelings” in the future,
but thanks to the AI we could express the opinion of the “gut brain”.
AI algorithms may, in fact, learn directly from the exposure to numerous examples
of data, similarly to the way children learn from examples and experiences. These
algorithms create their own rules of behavior and can even improve and correct these
rules by incorporating more data after the application of the first rules. Machine
learning is a subset of AI in which computers extract knowledge from the available
data: it is a combination of statistical analysis and computer science in which the
algorithms are able to “statistically learn.”
The most data-driven models are the deep learning algorithms [6]: they are particularly complex networks of artificial neurons able to create models
directly from raw data, very useful for image analysis.
These algorithms are able to use images and integrate them with other data: for example,
photographs to detect diabetic retinopathy [7], cytopathology specimens [8] and ultrasound images to discern thyroid nodules [9]. While humans may derive generalized concepts on the basis of a few examples and
got education from parents and teachers, training a deep learning algorithm requires
enormous amount of data to capture the complexity and variability of real-world images
or presentations. As an advantage, they require little to no human input, except than
an annotation of each image (or case) with the correct final diagnosis. This method
does not require preliminary image feature identification and extraction, because
features are identified as part of the learning process. The quality of source data
is crucial: the old “garbage in, garbage out” concept is still valid. Patient records,
medical registries, and ultrasound images are not always collated in accurate and
complete datasets, and so data quality is far from optimal [10].
Once an adequate number of examples to be presented to the computer has been collected,
and the “training” has been performed, a “test” dataset (without the final diagnosis)
is then presented to the algorithm to assess its accuracy in classification of new
data, never seen before.
These approaches may produce new knowledge (e. g. identifying new patterns and features
to be applied in a more traditional way) and generate computer-assisted diagnosis
(CAD) systems, like software that aid clinicians and provide a “second opinion”. For
example, AI-based thyroid and breast CADs may further improve diagnostic performance
and reliability, reaching an accuracy similar to that obtained by an expert radiologist
[11], with potential implication in training of less experienced operators [12]
[13] and reduction of intra- and inter-observer variability [14].
What can we therefore expect from connection of AI with ultrasound?. Ultrasonography
is by far the most largely utilized imaging modality. Thanks to its ease, bedside
portability and safety it is incorporated in the assessment of almost every health
state of human life, starting from the investigation of fetuses, when still in mothers’
womb. Moreover, ultrasound can be complemented with additional diagnostic modalities,
like Doppler ultrasound in its various forms, contrast agents [15], elastography [16] and used for guiding interventional procedures [17]
[18] just to mention the most important. Therefore, an interconnection of ultrasound
findings with clinical data would be an ideal field to produce advancements in diagnostic
capabilities based on AI. In fact, at present we are able to use ultrasound only for
specific and well established purposes, based on pre-determined clinical questions.
Expectedly, when using ultrasound we are already collecting many additional informations
that we are currently unable to recognize and of which we remain unaware, but that
AI could elaborate in the future. However, to allow AI to elaborate on this topic,
as we already anticipated above, all ultrasound operators should start thinking in
a modern or rather futuristic way. Images must be collected and organized and adequately
labeled and linked to clinical and laboratory information: all of these must be made
available in big data repositories.
Otherwise, to now, we cannot expect AI to deliver a superb innovative meal, as we
would expect from the best chefs, if we do not adequately prepare the ingredients.
It is time therefore for physicians, together with law-makers, politicians and managers,
to start thinking about how to maximize correct big data collection, to which ultrasound
could be among the greatest contributors, for future AI applications. The big-data
revolution required by AI call many actors on the stage. It is not just the responsibility
of physicians, including ultrasound operators, but also of all citizens and their
representative politicians, who should balance the benefits of gathering more information,
including those about health status, and the risks of misuse of this information.
In the authors opinion, the fear of information misuse should not block the progress
of science, but rather laws and their applications should be made in the proper way
to promptly recognize and punish any misuse, even when committed by the biggest and
richest international companies. Only if this will happen acting as effective deterrent
we will use AI at its maximal potential for health care.
Künstliche Intelligenz: Was ist das und welche zukünftige Möglichkeiten bieten sich
dadurch?
Unsere Fähigkeit komplexe Berechnungen durchzuführen hat im Laufe des letzten Jahrhunderts
massiv zugenommen, was auf die Verfügbarkeit leistungsfähiger Prozessoren und der
verbreiteten Omnipräsenz von PCs für private und professionelle Anwendungen zurückzuführen
ist. Viele Ärzte sind beunruhigt in Bezug auf die Anwendung künstlicher Intelligenz
(KI) in der Medizin und haben ein Szenario wie das des Science-Fiction-Autors Asimov
vor Augen. Aber ist das wirklich so? Welche Auswirkungen hat der Einsatz der KI in
der Medizin und insbesondere in der Sonografie?
KI bezieht sich auf Systeme, die in der Lage sind, zu „logisch zu denken“, eine Bedeutung
zu entdecken, zu verallgemeinern oder aus früheren Erfahrungen zu lernen und somit
Aufgaben zu erfüllen, die normalerweise menschliche Interaktion erfordern. Bekannte
Beispiele für KI-Anwendungen sind selbstfahrende Automobile oder Spracherkennungssoftware
(die bereits in unseren Smartphones integriert ist).
Laut einer Erklärung der U.S. Food and Drug Administration können KI-basierte Technologien
das Gesundheitswesen verändern, indem sie neue und wichtige Erkenntnisse aus der riesigen
Datenmenge ableiten, die bei der täglichen medizinischen Versorgung generiert wird.
Es ist klar, dass die Grundvoraussetzung die Verfügbarkeit der so genannten „Big-Data“
[1] ist: Sie können aus klinischem Wissen (z. B. elektronische Gesundheitsakten), Laborergebnissen,
molekularbiologischen Daten (z. B. OMICS-Daten, wie Genomik, Transkriptomik, Proteomik),
Bildgebung (PACS-abgeleitete Daten aus verschiedenen Modalitäten) und deren Integration
abgeleitet werden.
Im medizinischen Bereich wurde KI bereits für die Entdeckung und Entwicklung von Arzneimitteln
[2], bei der Prüfung von Medikamenteninteraktionen [3], in der molekularbiologischen Diagnostik, in der klinischen Entscheidungshilfe [4] und in der Bildgebung [5] eingesetzt. Die wichtigste Neuerung besteht in der Fähigkeit der KI, Muster zu erkennen,
indem riesige Mengen gespeicherter digitaler Informationen untersucht und analysiert
werden. Diese Muster werden möglicherweise vom menschlichen Denkvermögen und der klassischen
statistischen Analyse nicht erkannt, weil sie Variablen beinhalten können, die noch
als uninteressant gelten und die normalerweise weder im klinischen Denken noch in
der statistischen Planung berücksichtigt werden. Während Menschen abstrakt denken
können, sind sie nicht in der Lage, Muster zu finden und zu visualisieren, die in
große Mengen mehrdimensionaler, scheinbar nicht zusammenhängender Daten eingebettet
sind. Selbst wenn Menschen keine persönlichen Erfahrungen anwenden, sondern Kenntnisse,
die durch die Anwendung üblicher statistischer Tests gewonnen wurden, können sie nur
Ergebnisse vorhersagen, die durch konventionelle mathematische Formeln gut beschrieben
werden. Viele Ereignisse des wirklichen Lebens folgen nicht mathematischen Regeln,
sind aber dennoch nicht völlig unvorhersehbar. Denn obwohl diese Ereignisse nicht
durch vorgegebene Formeln vorhergesagt werden können, können sie durch Menschen mit
außergewöhnlicher Intelligenz oder in bestimmten Fällen durch ein „Bauchgefühl“ vorausgeahnt
werden. Das „Bauchgefühl“ wird aber auch in gewisser Weise durch Vorerfahrungen ausgelöst
und stellt somit eine Form von erweiterter Intelligenz dar. Daher ist es möglich,
dass bestimmte „Bauchgefühle“ durch Hilfsmittel erzeugt werden, die in der Lage sind,
riesige bereits vorhandene Datenmengen zu berücksichtigen und sie mit unglaublicher
Geschwindigkeit miteinander zu verbinden. Möglicherweise werden wir in Zukunft nicht
mehr mit dem „Bauchgefühl“, sondern dank der KI mit dem „Bauchgehirn“ Stellung beziehen.
KI-Algorithmen können in der Tat direkt durch die Exposition mit zahlreichen Datenbeispielen
lernen, ähnlich wie Kinder aus Vorbildern und Erfahrungen lernen. Diese Algorithmen
erstellen ihre eigenen Verhaltensregeln und können diese Regeln sogar verbessern und
korrigieren, indem sie nach der Anwendung der ersten Regeln weitere Daten einbeziehen.
Maschinelles Lernen ist ein Teilgebiet der KI, bei der Computer aus den verfügbaren
Daten Wissen extrahieren: Es ist eine Kombination aus statistischer Analyse und Informatik,
bei der die Algorithmen in der Lage sind, „statistisch zu lernen“.
Die am meisten datengesteuerten Modelle sind die Deep-Learning-Algorithmen [6]: Es handelt sich dabei um besonders komplexe Netzwerke künstlicher Neuronen, die
in der Lage sind, direkt aus Rohdaten Modelle zu erstellen, was für die Bildanalyse
von großem Nutzen ist.
Diese Algorithmen können Bilder verwenden und in andere Daten integrieren: beispielsweise
Fotografien zur Erkennung der diabetischen Retinopathie [7], zytopathologische Proben [8] und Ultraschallbilder zur Erkennung von Schilddrüsenknoten [9]. Während Menschen vielleicht anhand einiger weniger Beispiele allgemeine Konzepte
ableiten und ihre Erziehung von Eltern und Lehrern erhielten, erfordert das Training
eines Deep-Learning-Algorithmus eine enorme Datenmenge, um die Komplexität und Variabilität
realer Bilder oder Darstellungen zu erfassen. Der Vorteil ist, dass nur wenig bis
gar kein menschlicher Input erforderlich ist, außer eine Annotation zu jedem Bild
(oder Fall) mit der korrekten Enddiagnose. Bei dieser Methode ist keine vorläufige
Identifizierung oder Extraktion der Bildmerkmale erforderlich, da die Merkmale als
Bestandteil des Lernprozesses identifiziert werden. Die Qualität der Quelldaten ist
entscheidend: Das alte GIGO-Konzept (garbage in, garbage out) ist weiterhin gültig.
Patientenakten, medizinische Register und Ultraschallbilder werden nicht immer in
genauen und vollständigen Datensätzen zusammengefasst, so dass die Datenqualität bei
weitem nicht optimal ist [10].
Nachdem eine ausreichende Zahl an Beispielen gesammelt wurde, die dem Computer präsentiert
werden sollen, und das „Training“ durchgeführt wurde, wird dem Algorithmus ein „Test“-Datensatz
(ohne Enddiagnose) präsentiert, um dessen Genauigkeit bei der Klassifizierung neuer,
noch nie vorher erhaltender Daten zu beurteilen.
Diese Ansätze können neues Wissen hervorbringen (z. B. die Identifizierung neuer Muster
und Merkmale, die auf bisherige Weise angewendet werden) und computergestützte Diagnosesysteme
(CAD-Systeme) erzeugen, wie z. B. Software, die Klinikern hilft und eine „Zweitmeinung“
abgibt. Zum Beispiel können AI-basierte Schilddrüsen- und Brust-CADs die diagnostische
Leistung und Zuverlässigkeit weiter verbessern und eine Genauigkeit erreichen, die
der eines erfahrenen Radiologen ähnelt [11], mit möglichen Auswirkungen auf die Ausbildung weniger erfahrener Bediener [12]
[13] und auf eine Verringerung der Intra- und Interobserver-Variabilität [14].
Was können wir also von der Verbindung von KI und Sonografie erwarten? Die Ultraschalluntersuchung
ist die bei weitem häufigste angewandte bildgebende Methode. Dank ihrer einfachen
Bedienung, dem mobilen Einsatz am Krankenbett und ihrer Sicherheit wird sie, angefangen
mit der Untersuchung des Feten im Mutterleib, bei der Beurteilung nahezu aller Gesundheitszustände
im Laufe eines Menschenlebens eingesetzt. Darüber hinaus kann der Ultraschall durch
zusätzliche diagnostische Modalitäten ergänzt werden, wie z. B. Doppler-Ultraschall
in seinen verschiedenen Formen, kontrastverstärkte Sonografie [15], Elastografie [16] und bei der Steuerung interventioneller Verfahren [17]
[18], um nur die wichtigsten zu nennen. Daher wäre eine Verknüpfung von Ultraschallbefunden
mit klinischen Daten ein ideales Feld, um Fortschritte bei den diagnostischen Möglichkeiten
auf der Grundlage der KI zu erzielen. Tatsächlich können wir Ultraschall derzeit nur
für spezifische und gut etablierte Ziele auf der Grundlage vorher festgelegter klinischer
Fragestellungen einsetzen. Es ist zu erwarten, dass wir bei der Anwendung von Ultraschall
bereits viele zusätzliche Informationen sammeln, die wir gegenwärtig nicht erkennen
können und die uns nicht bewusst sind, aber die uns die KI in Zukunft genau darlegen
könnte. Damit KI jedoch, wie zuvor beschrieben, diesen Aspekt ausarbeiten kann, sollten
sich alle Ultraschallanwender eine moderne, eher futuristischen Denkweise aneignen.
Bilder müssen gesammelt und organisiert sowie angemessen gekennzeichnet werden und
mit klinischen und labordiagnostischen Befunden verknüpft werden: All dies muss in
Big-Data-Speichern zur Verfügung stehen.
Andernfalls können wir nicht erwarten, dass uns KI ein vorzügliches innovatives Gericht
zubereitet, wie wir dies von den besten Köchen erwarten, solange die Zutaten von uns
nicht entsprechend zubereitet werden. Es ist daher an der Zeit, dass Ärzte gemeinsam
mit Gesetzgebern, Politikern und Managern darüber nachdenken, wie die korrekte Sammlung
von Big-Data, zu denen Ultraschall vermutlich am meisten beiträgt, für zukünftige
KI-Anwendungen maximiert werden kann. Die für die KI erforderliche Big-Data-Revolution
ruft viele Akteure auf die Bühne. Es liegt nicht nur in der Verantwortung der Ärzte,
einschließlich der Ultraschallanwender, sondern auch in der aller Bürger und den sie
repräsentierenden Politikern, dass Vorteile einer erweiterten Sammlung von Daten,
einschließlich der des Gesundheitszustandes, gegen die Risiken eines Datenmissbrauchs
abwägt werden. Nach Ansicht der Autoren sollte die Angst vor Datenmissbrauch nicht
den Fortschritt der Wissenschaft blockieren, sondern es sollten Gesetze und ihre Anwendung
derart gestaltet werden, dass jeder Missbrauch rechtzeitig erkannt und bestraft wird,
selbst wenn dieser von den größten und reichsten internationalen Unternehmen begangen
wird. Nur wenn wir diese wirksame Abschreckung einsetzen, können wir KI mit maximalem
Leistungspotenzial in der medizinischen Versorgung nutzen.