AI-Tool hilft Ärzten bei der Beantwortung von Patientenanfragen

Ärzte stehen vor der Herausforderung, einen stetigen Strom von Patienten zu sehen und gleichzeitig prompt auf Patientennachrichten zu antworten. Um dieses Problem zu lösen, testen Gesundheitssysteme in den USA ein „generatives“ AI-Tool auf Basis von ChatGPT, das Entwürfe für Antworten auf Patientenanfragen zu ihrer Versorgung erstellen kann. Das Tool soll die Zeit reduzieren, die Ärzte für schriftliche Kommunikation aufwenden, um sich auf medizinisch komplexere Aufgaben zu konzentrieren und mehr Patienten persönlich zu sehen.

UC San Diego Health und UW Health testen das Tool seit April, während Stanford Health Care es nächste Woche einigen Ärzten zur Verfügung stellen wird. Die HIPAA-konforme Version des GPT-Sprachmodells von OpenAI ist in die Posteingänge der Ärzte über das Patientenportal MyChart integriert. Die Hoffnung ist, dass das AI-Tool die administrative Arbeit für Ärzte reduziert, die Patienteninteraktion verbessert und die Zufriedenheit erhöht.

„Patientennachrichten an sich sind kein Belastungsfaktor – es handelt sich eher um ein Nachfrage-Kapazitäts-Ungleichgewicht“, sagte Dr. Patricia Garcia, Gastroenterologin an der Stanford University, die das Pilotprojekt leitet. „Die Versorgungsteams haben nicht die Kapazität, um das Volumen der Patientennachrichten zeitnah zu bearbeiten.“

Das AI-Tool ist in der Lage, eine „nützliche Antwort“ auf Anfragen wie „Ich habe Halsschmerzen“ zu produzieren, sagte Dr. Christopher Longhurst, Autor einer kürzlich durchgeführten Studie, die ergab, dass Patienten bei fast 200 Anfragen, die in einem Online-Forum gepostet wurden, Antworten von ChatGPT gegenüber Ärzten bevorzugten. Patienten bewerteten die Antworten der Chatbots höher in Bezug auf Qualität und Empathie.

Dr. Longhurst glaubt, dass AI-Tools wie ChatGPT enormes Potenzial für die Gesundheitsversorgung bieten. „Ärzte erhalten eine hohe Anzahl von Nachrichten. Das ist typisch für einen Hausarzt, und das ist das Problem, das wir zu lösen versuchen.“

Bedenken und Einschränkungen von Chatbots in der Gesundheitsversorgung

Obwohl AI das Potenzial hat, die Kommunikation von Klinikern mit Patienten zu verbessern, gibt es Bedenken und Einschränkungen bei der Verwendung von Chatbots in der Gesundheitsversorgung. Eine Sorge ist, dass selbst die fortschrittlichsten Formen von AI versagen können und zufällige oder sogar fehlerhafte Antworten auf Patientenfragen liefern können. Dies ist ein potenziell ernsthaftes Risiko bei der Bereitstellung von Versorgung.

Eine weitere Sorge ist, ob Chatbots geeignet sind, die vielen verschiedenen Arten von Fragen zu beantworten, die ein Patient haben könnte, einschließlich solcher, die mit ihrer Prognose und Behandlung, Testergebnissen, Versicherung, Zahlungsüberlegungen und vielem mehr zusammenhängen. Es bleibt unklar, ob Chatbots in der Lage sind, all diese Fragen angemessen zu beantworten.

Eine dritte Sorge betrifft die Notwendigkeit, die Privatsphäre der Patienten und den Schutz von Daten zu gewährleisten, insbesondere angesichts der steigenden Zahl von Cyberangriffen auf Gesundheitseinrichtungen. Der zunehmende Einsatz von AI in der Gesundheitsversorgung wirft Fragen darüber auf, wie Daten gespeichert und geschützt werden sollen, sowie darüber, welche Rechte Patienten haben, wenn sie mit Chatbots über ihre Versorgung interagieren.

Dr. Garcia von Stanford merkte an, dass obwohl AI das Potenzial hat, in der Gesundheitsversorgung wirkungsvoll zu sein, „müssen wir vorsichtig sein“. Sie fügte hinzu: „Wir haben es mit echten Patienten mit echten medizinischen Bedenken zu tun, und es gibt Bedenken, dass [große Sprachmodelle] Verwirrung stiften oder halluzinieren könnten. Es ist also wirklich wichtig, dass die ersten nationalen Nutzer dies mit einem sehr sorgfältigen und konservativen Blick tun.“

Trotz dieser Bedenken besteht die Hoffnung, dass AI-Tools wie ChatGPT letztendlich zu weniger administrativem Aufwand für Ärzte führen und gleichzeitig die Patienteninteraktion und -zufriedenheit verbessern werden. Wenn es wie vorhergesagt funktioniert, ist es laut Dr. Garcia ein Gewinn auf allen Ebenen.