Alex Geiger im Interview

Das bietet ChatGPT in der Medizin an Chancen und Risiken

Uhr

Der Einsatz von Diensten wie ChatGPT könnte im Gesundheitswesen ebenso hilfreich wie folgenschwer sein. Welche Rolle generative KI in der Medizin spielen kann und wo die entsprechenden Chancen und Risiken liegen, erklärt Alex Geiger von der Klinikgruppe Hirslanden.

Alex Geiger, Experte Digital Health, Hirslanden Business Development and Innovation. (Source: zVg)
Alex Geiger, Experte Digital Health, Hirslanden Business Development and Innovation. (Source: zVg)

Wo sehen Sie mögliche Einsatzgebiete von Chatbots wie ChatGPT in der Medizin?

Alex Geiger: Die sehe ich beispielsweise im Bereich der Dokumentation und damit einhergehend einer Entlastung der Gesundheitsfachpersonen, was mehr Zeit für die Patientinnen und Patienten bewirken könnte. Ebenso in der Informationsbeschaffung, wobei hier klar angemerkt werden muss, dass auch die neueste Technologie lediglich Datenbanken nach Information absucht und diese dann in komprimierter Form wiedergibt. Diese Datenbanken müssen in Zukunft immer mehr erweitert und somit qualitativ besser werden, was genauere Analysen zulässt und die Qualität steigern wird. Interessant ist in diesem Zusammenhang die soeben angekündigte Zusammenarbeit von Micro­soft und Epic mit dem Ziel, GPT-4 mit qualitativ hochstehenden medizinischen Daten zu trainieren, um die Risiken eines verfrühten Einsatzes von generativen KIs in der Medizin anzugehen. Beispielsweise besteht die Gefahr von Verzerrungen respektive Bias, wenn die Algorithmen auf unvollständigen oder einseitigen Datensätzen trainiert werden. Um diese Risiken zu mindern, verpflichten sich Microsoft und Epic, transparente und ethische KI-Lösungen zu entwickeln, die streng getestet und validiert werden. Ob diese angezeigte Information der Wahrheit entspricht oder Falschinformation beinhaltet, kann auch eine Technologie wie ChatGPT aktuell nicht beurteilen. Ebenfalls anzumerken ist, dass ChatGPT eine generative KI ist und nicht per se für die Medizin programmiert wurde. Basierend auf dieser Technologie könnte jedoch eine dedizierte KI erschaffen werden, die spezifische Aufgaben erfüllt.

Welche Chancen bietet die Verwendung von Chat­GPT im medizinischen Kontext?

Solche Technologien könnten helfen, den Zeitaufwand zur Dokumentation und Informationsbeschaffung und -verarbeitung signifikant zu reduzieren. Zumindest erhoffe ich mir dies. Ebenso sind Diagnostik, Prozessoptimierung sowie Qualitätsanalysen zukünftig Gebiete, in denen KIs wichtige Dienste leisten werden. Hierzu kann die Technologie von ChatGPT oder andere KIs als Basis dienen, aber sie müssen für den jeweiligen Use Case dediziert angepasst werden.

Und wo sehen Sie Risiken?

Jede auch noch so «gehypte» Technologie sollte zuerst im kleinen Rahmen sauber auf Nutzbarkeit und Sicherheit evaluiert werden, denn auch ihr sind Grenzen gesetzt und sie löst nicht alle Probleme. Dies gilt vor allem im Gesundheitswesen. Unklar ist zum aktuellen Zeitpunkt, inwieweit wir den gelieferten Daten vertrauen können und von welcher Qualität diese Daten sind. Auch eine genaue Betrachtung im Sinne des Datenschutzes, IP-Rechten und der Frage der Haftung ist essenziell und zwingend notwendig – diese Bereiche könnten uns zukünftig vor Probleme stellen.

Welche Gefahren bestehen grundsätzlich bei der Verwendung von textbasierten Dialogsystemen im Gesundheitswesen?

Generative KIs basieren auf Algorithmen und somit auf Logik und Mathematik. Die Entwicklung in allen Bereichen schreitet jedoch rasant voran und es ist zu erwarten, dass die Möglichkeiten von KIs sich schnell erweitern werden. Intuition haben diese Anwendungen nicht und sie sind auch nicht in der Lage, zwischenmenschliche Empathie etc. zu simulieren. Dies ist gerade im Gesundheitswesen ein zentraler Faktor, der nicht unterschätzt werden darf. Manchmal sind genau diese Nuancen in einem Gespräch und der persönliche Kontakt essenziell, um eine Problematik zu identifizieren und dort tiefer ins Detail zu gehen, ansonsten könnten wichtige Informationen übersehen werden.

Mit Glass AI des US-Unternehmens Glass Health existiert bereits ein auf ChatGPT basierender Chatbot, der Ärztinnen und Ärzten als Hilfsmittel für die Diagnose von Krankheiten dienen soll. Was halten Sie von solchen Tools?

Solche Technologien können durchaus einen Nutzen bringen, da sie auf grosse Datenbanken zurückgreifen, diese durchforsten und analysieren können. Insofern können sie mehr Wissen und Informationen in kurzer Zeit verarbeiten, als dies ein Mensch jemals könnte. Dies kann sicherlich helfen, detailliertere Dia­gnosen und Differenzialdiagnosen zu erstellen oder andere zeit­intensive Aufgaben speditiv zu erledigen. Hierzu ist es jedoch ebenfalls wichtig, zu wissen, woher die verarbeiteten Daten stammen und inwieweit eine gute Datenqualität die Grundlage bildet. Persönlich habe ich mich noch nicht tiefer mit Glass AI auseinandergesetzt und erlaube mir hier keine abschliessende Bewertung. Was bei solchen Tools jedoch fehlt, ist die menschliche Komponente, namentlich Empathie und Intuition. Krankheit ist oft nicht nur ein organisches Leiden, das mittels Labor etc. definiert werden kann. Ebenso sind diverse Faktoren wie Psyche oder soziales Gefüge massgebend. Solche Technologien können meines Erachtens wertvolle und gute Hilfsmittel sein, ersetzen jedoch niemals den menschlichen Aspekt in der Medizin.

Angenommen, Chatbots wie Glass AI würden in der Schweiz als Hilfsmittel für die medizinische Entscheidungsfindung zum Einsatz kommen: Was würde das für die Patientensicherheit bedeuten?

Ich glaube, dies könnte durchaus helfen, die Patientensicherheit positiv zu beeinflussen im Sinne einer Assistenz und zusätzlicher Informationsquelle zur Entscheidungsfindung.

ChatGPT blind zu vertrauen, kann gefährlich sein – insbesondere in der Medizin. Wie sollen Leistungserbringer im Gesundheitswesen mit diesem Problem umgehen?

Eine gesunde Skepsis und vor allem Information und Transparenz darüber, was die Technologie kann und was sie nicht kann, sind fundamental. Es ist wichtig, allen Nutzenden klar aufzuzeigen, wie solche KIs funktionieren und was die Risiken bei der Nutzung sind. Insbesondere ist es wichtig, einen guten Umgang mit ihnen zu erlernen und sich der Risiken bewusst zu sein, um differenzierte Entscheidungen treffen zu können. KIs sind mächtige Hilfsmittel, aber eben Hilfsmittel wie viele andere auch. Blindes Vertrauen auf jegliche solitäre Technologie hilft nie. Das Zusammenspiel verschiedener Aspekte wird wohl auch in Zukunft die sicherste Variante bleiben und sollte immer einer einzelnen Insellösung bevorzugt werden.

Wie könnte man Bedenken hinsichtlich der Vertraulichkeit und des Datenschutzes im Zusammenhang mit der Verwendung von Chatbots wie ChatGPT im Gesundheitswesen angehen?

Grundlegend ist immer, vom jeweiligen Individuum eine Einverständniserklärung zur Verarbeitung seiner Daten einzuholen und sicherzustellen, dass alle datenschutzrechtlichen Anforderungen konsequent umgesetzt und eingehalten werden. Der Europäische Datenschutz ist relativ strikt und eng gefasst. Jegliche Abweichungen davon sind nicht tolerabel. Auf ein Individuum rückverfolgbare Daten dürfen nicht ohne klare Einwilligung und Offenlegung der Nutzungsabsicht verarbeitet werden. Anonymisierung oder zumindest Pseudonymisierung sind hier Stichwörter und können ebenfalls helfen, die Persönlichkeit von Individuen bestmöglich zu schützen. Optimalerweise werden Anfragen an eine KI anonym gestellt. Denkbar wäre es, nach Einholung einer Einwilligung zur Datenverarbeitung der betroffenen Person, schützenswerte Daten vorab durch ein klinikinternes System zu anonymisieren oder pseudonymisieren und erst dann an eine KI zur Analyse etc. weiterzuleiten. Dieses Programm kann dann intern – oder auf einer eigenen geschützten Cloud – erst alle schützenswerten Daten, die Rückschlüsse auf ein Individuum erlauben, bearbeiten, beispielsweise als Nummerncode, und erst dann an die KI senden. Die Antwort der KI kann dann über das Pseudonym wieder einem Individuum intern zugeordnet werden.

Webcode
RN49Khpd