KI im radiologischen Alltag: Wann wird sie akzeptiert, wann nicht?
| 04.05.2026 |
|---|---|
| European Radiology 2026;36(5):3687-96 |
| Factors influencing AI acceptance in radiology: a systematic review across the radiology workflow |
| Verwey J et al. |
Fazit
Widerstände gegen KI-Tools existieren vor allem, wenn sie die diagnostische Kernkompetenz von Radiolog:innen berühren. Die Akzeptanz der KI ist generell größer, wenn sie Radiolog:innen unterstützt statt sie zu ersetzen.
Dass die Forschung zu KI-Anwendungen nicht-klinische Akteure bisher kaum einbezieht, erweist sich als Manko. Zudem ist die Forschung entlang des radiologischen Workflows ungleich verteilt: Die Literatur dreht sich vor allem um Bildinterpretation, andere Bereiche wie Terminplanung oder Nachsorge werden hingegen kaum berücksichtigt.
KI mit Akzeptanzproblem
KI weist in bestimmten Fällen eine höhere diagnostische Genauigkeit auf als Radiolog:innen. Das allein bahnt neuen KI-Anwendungen aber nicht automatisch den Weg in den radiologischen Workflow. Bisherige Studien nennen dafür Gründe: Probleme der Integration in die bestehende IT-Infrastruktur, unklaren Zusatznutzen, schlechtere Ergebnisse im klinischen Alltag im Vergleich zum Studiensetting, aber auch die ungeregelte Kostenübernahme.
Bisher nehmen Studien vor allem den ärztlich-diagnostischen Blickwinkel ein. Nicht-klinische Beteiligte wie Klinik-Management, IT, Industrie, Regulierungsbehörden und Kostenträger sind kaum untersucht. Diese Gruppen entscheiden aber mit über die KI-Implementierung.
Zudem betrachten bisherige Studien die KI-Akzeptanz in der Radiologie meist pauschal – sie unterscheiden kaum zwischen unterschiedlichen Einsatzbereichen von KI entlang des Workflows (wie
Um die Faktoren für die (Nicht-)Akzeptanz der KI genauer zu benennen, haben Jamie Verwey und Kolleg:innen in ihrer systematischen Literaturrecherche den Fokus erweitert: auf Studien mit verschiedenen, auch nicht-klinischen Beteiligten, sowie auf Studien, die die Akzeptanz spezifischer KI-Tools untersuchen, nicht KI als generelles Konzept.
Methodik der systematischen Literaturrecherche
- Systematische Literatursuche im Januar 2024 sowie ein Update im Januar 2025
- Inklusion von 37 Studien
- Die Autoren haben die Texte offen (ohne vorgegebene Kategorien) analysiert und erste Schlagwörter extrahiert, daraus übergeordnete Kategorien gebildet und die Ergebnisse schließlich zu sechs größeren Themen zusammengefasst.
Trainingsdaten: Nicht-radiologische Kliniker:innen und MTRA betonen gleichermaßen die Bedeutung des Trainings der KI mit Daten, die ihre klinischen Fälle repräsentieren, damit die Übertragbarkeit auf den realen klinischen Kontext gewährleistet bleibt.
Systemintegration: Gerade zu Beginn der KI-Implementierung sind „technische Flaschenhälse“ problematisch, zum Beispiel lange Rechenzeiten oder händische Übertragungen der Bilder auf den KI-Server.
Leistungsfähigkeit des Modells: Radiologen erwarten eine diagnostische Genauigkeit des KI-Modells, die mindestens der ihren entspricht. Ist die diagnostische Genauigkeit hoch, sind nicht-radiologische Kliniker:innen wie auch MTRA bereit, ein KI-Modell zu akzeptieren, selbst wenn sie nicht komplett verstehen, wie es funktioniert. Je höher die diagnostische Genauigkeit der KI, desto weniger wichtig wird ihre Erklärbarkeit.
Radiolog:innen und Patient:innen, die ihr KI-Wissen hoch einschätzen, schätzen Bildinterpretation durch KI positiver ein als Personen mit als geringer selbst eingeschätztem KI-Wissen. Letztere haben teilweise falsche Erwartungen an die Leistungsfähigkeit der KI. Sind KI-Schulungen verfügbar, steigen Wissen und Akzeptanz gegenüber KI.
Ungeklärte Verantwortlichkeiten, fehlende regulatorische Klarheit sowie Datenschutzbedenken sind wesentliche Barrieren für die breite Akzeptanz von KI.
Macht die KI Fehler, fühlen sich die Radiolog:innen dafür weniger verantwortlich.
Patient:innen wollen über den Einsatz von KI informiert werden und erwarten, dass ihre Zustimmung zur Nutzung von KI in ihrer Behandlung eingeholt wird.
KI wird eher akzeptiert, wenn sie
Sowohl Patient:innen als auch Ärzt:innen akzeptieren KI vor allem dann, wenn
KI kann das Vertrauen und die Sicherheit der Nutzer erhöhen, zum Beispiel durch weniger übersehene Diagnosen. Dies könnte aber auch zu Automationsbias und Überabhängigkeit führen.
Hier liefern die Studien allerdings ein uneinheitliches Bild: In einer Studie zum Lungenkrebs-Screening sehen Radiolog:innen beispielsweise bei sich keine Überabhängigkeit. In einer Mammographie-Screening-Studie führte geringes Vertrauen in die KI sogar zu einer kritischeren Prüfung der KI-Ergebnisse.
Die Akzeptanz von KI hängt stark von ihrer Validierung und klaren Leitlinien ab.
Validierung: Randomisierte kontrollierte Studien werden bevorzugt.
Leitlinien & Regulierung: Fehlende nationale und lokale Standards und Richtlinien
KI als Standardisierungsinstrument
Unklare Beschreibungen der Leistungsfähigkeit von KI können allerdings zu falschen Erwartungen führen.
Für zukünftige Forschung fordern die Autor:innen eine stärker differenzierte Betrachtung von KI nach Funktion und Workflow-Phase sowie eine breitere Einbindung relevanter Beteiligter jenseits der Radiolog:innen.