Microsoft investiert in den Healthcare-Markt. KI-basierte Spracherkennungssysteme sollen die Qualität der Arzt-Patient-Beziehung und die Patient Experience optimieren. Und das könnte erst der Anfang sein.
45 Prozent der befragten Patient:innen fanden, dass der Arzt oder die Ärztin während des Gesprächs zu sehr auf den Bildschirm fokussiert war. Das ist eines der Ergebnisse einer Umfrage von Nuance und Microsoft, die vom 9. November 2023 bis zum 2. Februar 2024 durchgeführt und auf dem European Healthcare Media-Meet-Up von Microsoft in Berlin vorgestellt wurde. Sie erstreckte sich auf elf Länder, darunter Frankreich, Großbritannien, Spanien und Australien. 13.500 Personen nahmen teil, davon 2.000 in Deutschland. Befragt wurden Patient:innen einer stationären, ambulanten oder teilstationären Versorgung in einer Klinik, im Fokus stand die Interaktion mit dem oder der behandelnden Facharzt / Fachärztin und die Patient Experience. Und die wurde vielfach als optimierungsbedürftig empfunden.

Patient Experience? Mangelhaft

Denn die Tatsache, dass der Arzt oder die Ärztin mehr auf den Desktop seines Gerätes schaut als auf den Menschen dahinter, sorgt bei 38 Prozent der Befragten für Frustration, 19 Prozent fühlen sich dadurch verunsichert. Dies hat Auswirkungen auf die Behandlungsqualität und die medizinischen Ergebnisse – und kann letztlich auch die Frustration auf Seiten der HCPs erhöhen.
MSFT_Healthcare_Barbara_Nayeb, Porträt vor dunkler Wand

Barbara Nayeb auf dem European Healthcare Media-Meet-Up von Microsoft in Berlin. © Microsoft

Ursache für diese Situation ist die Dokumentation der Arzt-Patienten-Gespräche. Diese können umfangreich sein und werden oft während der Behandlung geführt. Handschriftlich, per Tastatur. Das will Barbara Nayeb im Klinikum Region Hannover ändern. Die IT-Projektmanagerin für Krankenhausdigitalisierung betreut den Rollout von Dragon Medical One. Dahinter verbirgt sich eine KI-basierte Spracherkennungssoftware für die Dokumentation von Pflege- und Behandlungsleistungen, die das zu Microsoft gehörende Unternehmen Nuance entwickelt hat. Sie funktioniert via Smartphone und Desktop mit Mikrofon. Im August letzten Jahres wurde mit dem Rollout begonnen, jetzt folgt der Umzug in die Health Cloud. Das System steht also kurz vor der Live-Schaltung. Die Resonanz des medizinischen Klinik-Personals ist positiv. “Wir wollen einfach weniger tippen. Dokumentation kostet Zeit. Wenn wir hier sparen, bleibt mehr Zeit für den und die Patient:in.” Dass diese irritiert sein könnten, wenn der Arzt während der Untersuchung in ein Smartphone oder Mikrofon spricht, befürchtet sie nicht. Im Gegenteil: “Der Ablauf ist transparent. Die Patient:innen schätzen das.”

Fördern KI-basierte Spracherkennungslösungen das Patient Engagement?

Die Umfrage von Nuance und Microsoft bestätigt dies: 43 Prozent der Befragten haben schon einmal erlebt, dass der Facharzt oder die Fachärztin den Befund in ihrem Beisein in ein Mikrofon diktiert hat. 76 Prozent bewerteten dieses Vorgehen als positiv, 68 Prozent fühlten sich dadurch besser informiert und in die Behandlung einbezogen. 67 Prozent gaben an, dass sie sogar vor Ort Fragen zum Bericht stellen und Ergänzungen machen konnten. Ein guter Arzt-Patienten-Dialog kann zu einer besseren Behandlung führen, auch weil der Patient mehr Raum hat für seine Beschreibungen und seine Diagnose besser versteht. Dies kann die Patient Experience enorm verbessern und zudem den Arzt entlasten. Im klinischen System oder auch in der niedergelassenen Praxis können so auch die nachfolgenden Behandlungsprozesse für das gesamte Behandlungsteam effizienter gestaltet werden. KI-basierte Spracherkennungslösungen wie Dragon Medical One ermöglichen es Mitarbeitenden beispielsweise, Informationen zur Fieberkurve direkt in die elektronische Patientenakte und ins Krankenhausinformationssystem (KIS) zu diktieren.
KI strukturiert die Patientendaten, sucht auf Wunsch des jeweiligen medizinischen Fachpersonals bestimmte Informationen heraus und bereitet sie für sie auf. Und das alles mit der Kraft der Stimme. Patient:innen laufen so auch weniger Gefahr, ein und dieselbe Frage immer wieder beantworten zu müssen, weil bestimmte Informationen in der Dokumentation quasi versteckt und von der Pflegekraft überlesen werden.

Kann KI Medizin menschlicher machen?

Dies könnte erst der Anfang sein. In den USA ist man schon einen Schritt weiter. Dort ist der Dragon Ambient eXperience (DAX) Copilot, die Weiterentwicklung von Dragon Medical One von Nuance, bereits erhältlich. Die Software kombiniert Conversational und Ambient KI mit dem neuesten generativen KI-Modell. Das bedeutet: Das Spracherkennungssystem funktioniert via Smartphone oder Desktop, zeichnet seine Umgebung – und damit das Arzt-Patienten-Gespräch – automatisch auf, strukturiert die Daten und stellt sie als Transkript zur Verfügung.
 Dr. Jeffrey Cleveland, Chief Medical Information Officer bei Atrium Health USA und Spezialist für Pädiatrie und klinische Information, Porträt mit Smart Phone in der Hand

Dr. Jeffrey Cleveland, Chief Medical Information Officer bei Atrium Health USA, demonstrierte mit dem Smartphone seinen Workflow mit dem Dragon Ambient eXperience (DAX) Copiloten. © Microsoft

Nach der Bearbeitung (ebenfalls per Sprachbefehl) fließt es in das ERP ein. Der Patient stimmt im Vorfeld zu. Dr. Jeffrey Cleveland, Chief Medical Information Officer bei Atrium Health USA und Spezialist für Pädiatrie und klinische Information, nutzt den Copiloten bereits. Auf dem European Healthcare Media-Meet-Up von Microsoft in Berlin berichtete er über seine Erfahrungen mit dem System. KI, sagt er, mache die Medizin wieder menschlicher. “Sie hilft uns, den zwischenmenschlichen Austausch in der Medizin wieder in den Vordergrund zu rücken.” Microsoft und Nuance planen eine Copilot-Variante auch für Patient:innen. Der DAX Copilot wurde auch auf der diesjährigen DMEA vorgestellt.

Fazit

Für Barbara Nayeb und ihr Team hat die Reise gerade erst begonnen. In ihren Augen werden Ärzt:innen und Patient:innen von KI-basierten LLMs wie Dragon Medical One profitieren. Was für das klinische System gilt, kann auch in den Praxen von niedergelassenen Ärzt:innen funktionieren. Auch die Dokumentation und Bearbeitung von Studien könnte durch KI-basierte Spracherkennung erleichtert werden. Das wiederum könnte für die Pharmaindustrie interessant sein. KI-basierte Spracherkennungsmodelle stehen in Deutschland erst am Anfang dessen, was möglich zu sein scheint. Doch schon jetzt können HCPs die Low Hanging Fruits ernten – und die Patient Experience deutlich verbessern.