KI im Gesundheitswesen: Neue Leitlinien der Weltgesundheitsorganisation

Während die Pharmaindustrie die KI-Revolution einläutet, veröffentlicht die Weltgesundheitsorganisation neue Richtlinien zum Einsatz großer KI-Modelle.

In Pocket speichern vorlesen Druckansicht
Mediziner an einem Tablet

(Bild: everything possible/Shutterstock.com)

Lesezeit: 3 Min.

Da multimodale KI-Modelle im Gesundheitswesen zunehmend in der wissenschaftlichen Forschung, im öffentlichen Gesundheitswesen und auch verstärkt in der Pharmaindustrie zum Einsatz kommen sollen, hat die Weltgesundheitsorganisation (WHO) erneut Leitlinien zu multi-modalen KI-Modellen (Large Multi-modal Models, LMM) veröffentlicht. Für den "sicheren und wirksamen" Einsatz von Künstlicher Intelligenz im Gesundheitswesen fordert die WHO demnach das Engagement der Regierungen, Technologieunternehmen, Gesundheitsdienstleister, Patienten und der Zivilgesellschaft.

So sollen Entwickler beziehungsweise Technologieunternehmen, Universitäten oder nationale Gesundheitssysteme oder weitere die "verschiedenen Interessengruppen" bei der Entwicklung von KI-Modellen bereits in frühen Entwicklungsphasen einbeziehen. Dabei sind in den Entscheidungen oft mehrere Parteien involviert. Aktuell werden beispielsweise verschiedene Foundation Models für den Einsatz im Gesundheitswesen und der Medizin trainiert.

Wertschöpfungskette der Entwicklung, Bereitstellung und Bereitstellung von LMMs

(Bild: Weltgesundheitsorganisation)

Beim Finetuning eines KI-Modells können ebenfalls weitere Anbieter ins Spiel kommen, ebenso bei der Integration der LMMs in bestehende Software oder weitere (Hardware-)Komponenten. In dem Zusammenhang hatte kürzlich auch das Bundesamt für Sicherheit in der Informationstechnik mit verschiedenen Cybersicherheitsbehörden gewarnt und KI-Richtlinien veröffentlicht. Für Endverbraucher werde es zunehmend schwieriger, die Verantwortlichkeiten nachzuvollziehen. Betreiber sollten daher für Transparenz sorgen.

Das Dokument basiert auf den bereits 2021 von der WHO zur Ethik und Governance publizierten Leitlinien für den Einsatz von KI im Gesundheitswesen. Damals wie auch jetzt wurden KI-Experten zu Vorteilen und Risiken befragt. Zu letzteren gehören neben einem möglichen Einfluss auf den Arbeitsmarkt vor allem die Überschätzung der Systeme, aber auch Halluzinationen und KI-Bias sowie offene Fragen zur Datenqualität und Cybersicherheit.

Der Leitfaden (PDF) enthält mehr als 40 Empfehlungen für Regierungen, Technologieunternehmen und Gesundheitsdienstleister für einen "verantwortungsvollen Einsatz von LMMs zur Förderung und dem Schutz der öffentlichen Gesundheit". Im Fokus stehen dabei Anwendungen für Ärzte und Patienten zur Diagnose, aber auch für Büro- und Verwaltungsaufgaben, für die medizinische und pflegerische Ausbildung sowie für die wissenschaftliche Forschung und Arzneimittelentwicklung. "LMMs werden auch als 'General purpose AI' bezeichnet, [...] dennoch ist noch nicht bewiesen, ob LMMs ein breites Spektrum an Aufgaben und Zwecken erfüllen können", gibt die WHO in dem mehr als 70 Seiten umfassenden Dokument (PDF) zu bedenken.

In den 2021 veröffentlichten Leitlinien hatten sich die Experten auf sechs Grundsätze unter anderem für Regierungen, der öffentliche Gesundheitsdienst, Forscher, Unternehmen und Entwickler geeinigt. Zu den Grundsätzen zählen:

  1. Schutz der Autonomie
  2. Förderung des Wohlbefindens der Menschen
  3. Transparenz und Erklärbarkeit der KI
  4. Verantwortung, auch aus rechtlicher Sicht
  5. Inklusivität und Gerechtigkeit
  6. reaktionsfähige und nachhaltige KI

Für eine effektive Regulierung der KI-Systeme sollen Regierungen nach Wunsch der WHO weltweit zusammenarbeiten, was mit der KI-Verordnung zumindest für Europa ohnehin der Fall sein soll. Und auch beim AI Safety Summit haben sich 30 Staaten – unter anderem auch China – darauf geeinigt, beim Einsatz von KI besser kooperieren zu wollen.

(mack)