Künstliche Intelligenz (KI) ist nicht länger ein Zukunftskonzept. Sie ist bereits in den Alltag des Gesundheitswesens eingebettet – sie dokumentiert Termine, unterstützt Diagnosen, erstellt Patientenbriefe und automatisiert Verwaltungsaufgaben.
Die allgemeine Meinung rund um die künstliche Intelligenz ist stark gespalten: Entweder wird sie die Medizin revolutionieren oder die Ärzte ersetzen. Doch die Wahrheit ist viel differenzierter (und viel dringlicher). Ob Sie nun Berater, Allgemeinmediziner, Verwaltungsangestellter oder Führungskraft im Gesundheitswesen sind, KI verändert bereits jetzt Ihr Umfeld. Die Frage ist nicht, ob sie sich auf Ihre Arbeit auswirken wird, sondern wie – und ob diese Auswirkungen sicher, ethisch vertretbar und auf den Menschen bezogen sein werden.
Dieser Artikel fasst die Erkenntnisse von Experten zusammen, die auf der jüngsten Veranstaltung von Doctify zum Thema KI im Gesundheitswesen teilgenommen haben. Wir zeigen auf, wo KI bereits einen Mehrwert bietet, wo die Risiken liegen und wie Fachkräfte im Gesundheitswesen sinnvoll mit dem Wandel umgehen können.
Wie KI die klinische Praxis umgestaltet
Wir wurden von einem Expertengremium von Rednern begleitet, die eine Menge von Einblicken und Erfahrungen aus erster Hand mit KI im Gesundheitswesen mitbrachten:
- Dr. Keith Grimes, Berater für KI und digitale Gesundheit und Gründer von Curistica
- Ekanjali Dhillon, Change Lead für digitale Transformation bei HCA Healthcare UK
- Ian Robertson, Kommerzielle Partnerschaften, UK & Irland bei Tandem Health
- Dr. Nikita Patel, Leiterin der Abteilung für Angebote bei AXA Health
- Ankita Negi, Leiterin Healthtech & Biotech bei Microsoft UK
Eine der deutlichsten Erkenntnisse der Veranstaltung war vor allem diese: KI liefert bereits einen Mehrwert im Gesundheitswesen, aber der Mehrwert sieht sehr unterschiedlich aus, je nachdem, wo man sich befindet. Ob es um die Verbesserung der Diagnose oder die Beschleunigung der Verwaltung geht, KI zeigt sowohl im klinischen als auch im operativen Bereich reale Auswirkungen.
Sprachgesteuerte KI hilft Ärzten, wieder mit Patienten in Kontakt zu treten
Künstliche Intelligenz beginnt, sich direkt in den Diagnose- und Behandlungsprozess zu integrieren, und verbessert die Art und Weise, wie die Versorgung am Kunden erfolgt.
Eines der aussagekräftigsten Beispiele stammt von Tandem, einer Sprachtechnologie, die derzeit bei über 200.000 NHS (“National Health Service”, dt. Nationaler Gesundheitsdienst)-Klinikern eingeführt wird. Sie hört während der Konsultationen zu, schreibt Gespräche in Echtzeit mit und erstellt automatisch strukturierte klinische Notizen, wodurch die Ärzte von ihren Bildschirmen befreit werden und sich wieder auf die Patienten konzentrieren können.
Ärzte und Krankenschwestern waren bisher an ihre Computer gebunden, um Notizen zu schreiben. Unsere Lösung hilft Ihnen, sich wieder auf die Patienten zu konzentrieren, ihren Beschwerden zuzuhören, weniger Zeit mit Schreiben und mehr Zeit mit Zuhören zu verbringen. Das ist es, wofür die Menschen ins Gesundheitswesen kommen.
Dr. Keith Grimes, Berater für KI und digitale Gesundheit und Gründer von Curistica
Von der Niederschrift zur vollständigen Unterstützung der klinischen Arbeitsprozesse
Aber Tandem vereinfacht nicht nur die Dokumentation. Laut Ian Robertson von Tandem Health entwickelt sich die Technologie weiter, um den gesamten klinischen Arbeitsablauf zu unterstützen: “Wir bauen für den gesamten klinischen Arbeitsablauf – nicht nur für die Niederschrift, sondern für alles, was davor und danach passiert.”
Dazu gehört die Automatisierung von Aufgaben wie:
- Generierung von Bluttestanfragen
- Bestellung von radiologischen Aufzeichnungen
- Auffüllen von SNOMED- oder ICD-10-Codes
- Extrahieren strukturierter Daten aus Freitextnotizen
Klinische Anwendungsfälle aus der Praxis: KI in der Diagnostik, bei Notfällen und in der psychischen Gesundheit
Ein weiteres herausragendes Beispiel ist Mia, ein von Kheiron Medical entwickeltes diagnostisches KI-Tool. Mia ist bereits im NHS Grampian im Einsatz, wo es im Rahmen von Brustkrebs-Screening-Programmen als Erstleser von Mammogrammen fungiert. Dies hat dazu beigetragen, den Druck auf die Radiologen zu verringern, ohne die Diagnosegenauigkeit zu beeinträchtigen.
Ankita Negi, Healthtech & Biotech Lead bei Microsoft UK, sagte: “Bei Brustkrebs liegt die Überlebensrate bei 95 %, wenn der Tumor weniger als 15 mm groß ist.” “Frühzeitiges Erkennen ist das A und O. KI hilft uns dabei.”
Mia ist Teil einer breiteren Welle von klinisch ausgerichteten KI-Tools, die die Versorgung in allen Fachbereichen verändern.
- Ultromics hilft bei der Erkennung früher Anzeichen von Herzinsuffizienz durch die Analyse von Echokardiogrammen mithilfe von KI, wodurch Diagnosefehler reduziert und schnellere klinische Entscheidungen in der Kardiologie unterstützt werden.
- Corti unterstützt Rettungsdienste, indem es Live-Notrufe analysiert, um Zustände wie Herzstillstand in Echtzeit zu erkennen und in kritischen Momenten als KI-Copilot zu fungieren.
Diese Innovationen verfolgen ein gemeinsames Ziel: die Unterstützung einer früheren Erkennung, eines schnelleren Eingreifens und einer individuelleren Behandlung über alle klinischen Pfade hinweg.
Generative KI-Tools verändern den klinischen Alltag
Während Ambient-Voice- und Diagnose-Tools den Termin selbst verändern, gestalten generative KI-Tools die damit verbundenen Aufgaben neu.
Kliniker verwenden heute Tools wie Microsoft Copilot, ChatGPT, Claude und Gemini, um:
- Patientenbriefe zu verfassen
- Zusammenfassen von Forschungsergebnissen
- Präsentationsfolien zu erstellen
- regulatorische Fragen zu beantworten
Diese Tools sind bereits in viele Arbeitsabläufe im Gesundheitswesen eingebettet und bieten Geschwindigkeit, Struktur und Flexibilität.
Die Risiken: Verzerrungen, Halluzinationen und Verantwortlichkeit
Trotz der Begeisterung waren sich die Experten einig: KI ist keine magische Lösung. Sie ist ein Werkzeug – und wie jedes Werkzeug birgt sie Risiken.
Voreingenommenheit bei der Automatisierung
Wenn KI-Tools in EMRs und Arbeitsabläufe integriert werden, besteht die Gefahr, dass man ihnen zu viel Vertrauen schenkt. Kliniker könnten anfangen, auf “Genehmigen” zu klicken, ohne die Ergebnisse vollständig zu lesen.
Wenn KI-Tools in EMRs und Arbeitsabläufe integriert werden, besteht die Gefahr von übermäßigem Vertrauen. “Kliniker könnten anfangen, auf ‘genehmigen’ zu klicken, ohne die Ergebnisse vollständig zu lesen.
Ankita Negi, Healthtech & Biotech Lead bei Microsoft UK
Mehrere Diskussionsteilnehmer betonten die Notwendigkeit eines UI-Designs, das eine sinnvolle Beschäftigung mit der Software erzwingt, mit Aufforderungen, die Kliniker auffordern, jeden Abschnitt zu validieren oder potenzielle Fehler zu identifizieren.
Fehler
Große Sprachmodelle wie ChatGPT oder Claude generieren Text, indem sie das wahrscheinlichste nächste Wort vorhersagen – und nicht, indem sie Fakten verifizieren. Das bedeutet, dass sie Informationen erfinden können, die zwar korrekt aussehen, aber völlig falsch sind. “Sie sind wirklich gut darin, einen zu täuschen. Und in der klinischen Praxis ist das erschreckend”, so Ekanjali Dhillon, Digital Transformation Change Lead bei HCA Healthcare UK.
Das kann bedeuten, dass eine falsche Diagnose in einen Brief eingefügt wird, dass ein Behandlungsplan falsch zugeordnet wird oder dass eine Krankengeschichte ungenau zusammengefasst wird. Wenn sie nicht kontrolliert werden, können diese Fehler zu klinischem Schaden führen.
Rechenschaftspflicht und rechtliche Risiken
Die vielleicht heikelste Frage: Wer ist verantwortlich, wenn etwas schief geht? Wie Ekanjali Dhillon es ausdrückte: “Ist es Ihre Schuld? Die Schuld von Gemini? Die Schuld der Stiftung? Viel Glück beim Verklagen!”.
Derzeit liegt die Verantwortung immer noch beim Arzt, selbst wenn er eine von der KI erstellte Zusammenfassung verwendet. Dies hat schwerwiegende Auswirkungen auf die Unternehmensführung, insbesondere wenn mehr Tools in Arbeitsprozesse eingebettet werden.
Die Ausbildung hält nicht Schritt
Wenn KI nun Teil der täglichen Praxis ist, muss die Ausbildung dies widerspiegeln. Doch die meisten medizinischen Ausbildungen lassen die digitale Gesundheit noch immer aus – ganz zu schweigen von Prompting, Modellverzerrungen oder KI-Sicherheit.
Wir unterrichten digitale Gesundheit nicht einmal im Medizinstudium. Und jetzt brauchen wir Kliniker, die KI sicher überwachen können.
Dr. Nikita Patel, Head of Propositions bei AXA Health
Zukünftige Kliniker müssen lernen:
- Programmierung: Wie man effektiv mit KI-Tools kommuniziert
- Modellüberlegungen: Verstehen, wie LLMs Ergebnisse erzeugen und was die Genauigkeit beeinflusst
- Fehlererkennung: Erkennen, wenn eine KI nicht richtig funktioniert oder halluziniert
- Klinische Steuerung: Wissen, wann und wie man sich über KI-Empfehlungen hinwegsetzt
Wie Ankita Negi es ausdrückte: “Man muss kein Datenwissenschaftler sein. Aber wenn die KI mit Ihnen Entscheidungen trifft, müssen Sie wissen, wie sie funktioniert – und wann sie falsch liegt.”
Was Sie jetzt tun können (kein technisches Studium erforderlich)
Viele Kliniker möchten sich engagieren, wissen aber nicht, wo sie anfangen sollen. Hier sind vier praktische Schritte von den Experten:
1. Experimentieren Sie mit verschiedenen Lösungen
Begnügen Sie sich nicht mit ChatGPT. Versuchen Sie Claude, Gemini, Copilot oder NotebookLM. Jedes hat andere Stärken – Recherche, Zusammenfassung, Argumentation usw.
2. Testen Sie die Eingabeaufforderung wie ein Profi
Versuchen Sie es: “Sie sind ein leitender Arzt. Schreiben Sie einen Brief an einen Patienten, in dem Sie dessen Behandlungsplan für Bluthochdruck in einfacher Sprache erläutern.”
Je konkreter die Aufgabe und das Ziel sind, desto besser ist das Ergebnis.
3. In einer kleinen Praxis anfangen
- Erprobung der Sprachtranskription in einer Klinik
- Verwendung von KI zur Zusammenfassung einer wissenschaftlichen Arbeit
- Umwandlung vorhandener Notizen in Präsentationsfolien
- Entwurf einer Entlassungszusammenfassung mit KI, dann Überprüfung vor der Fertigstellung
- Übersetzen eines kurzen Erklärungsvideos für nicht englischsprachige Patienten
- Erstellen von KI-generierten FAQs für eine häufig vorkommende Erkrankung, die Sie behandeln
4. Stellen Sie Ihrem KI-Anbieter schwierige Fragen
- Was war der Trainingsdatensatz?
- Wie wird das klinische Risiko behandelt?
- Kann ich Ausgaben überschreiben, und wird das protokolliert?
- Wie sieht der Audit-Prozess aus?
Wenn KI das Medikament ist, sind die Kliniker die Verordner. Das bedeutet, dass wir uns dieselben Fragen stellen müssen, die wir auch bei jeder anderen neuen Behandlung stellen würden.
Ekanjali Dhillon, Digital Transformation Change Lead bei HCA Healthcare UK
Die Zukunft ist menschengeführt… mit KI als Unterstützung
Enkanjali Dhillon teilte mit: “Fortschritte in diesem Bereich hängen vom kollektiven Lernen ab. Wir können mitgestalten, wie KI eingesetzt wird – aber nur, wenn wir uns einmischen.”
KI ist bereits da: Sie dokumentiert, schlägt vor und trifft Vorhersagen. Aber sie ist nicht dazu da, das klinische Urteil zu ersetzen. Im besten Fall unterstützt KI genau die Dinge, die viele in die Medizin geführt haben: den Patienten zuhören, fundierte Entscheidungen treffen und eine sinnvolle Pflege leisten.
Die menschliche Aufsicht wird immer unerlässlich sein. Aber mit den richtigen Werkzeugen, Schulungen und Fragen können Kliniker KI nutzen, um intelligenter und nicht härter zu arbeiten: Burnout reduzieren, den Zugang verbessern und das Vertrauen stärken.
Die Zukunft des Gesundheitswesens ist nicht maschinengesteuert. Sie ist menschengeführt, technologiegestützt und wird von denjenigen gestaltet, die sich dafür entscheiden, sich damit zu befassen.
Möchten Sie zu zukünftigen Doctify-Veranstaltungen eingeladen werden? Melden Sie sich kostenlos an – exklusiv für praktizierende Kliniker.
