Die ethischen Grenzen bleiben
In vielen Bereichen der Medizin hat die künstliche Intelligenz bereits Einzug gehalten. Foto: Pixabay
Paderborn. Mit der Medizin im digitalen Zeitalter befasst sich an diesem Samstag der Ärztetag im Erzbistum Paderborn. „Computerunterstützte Diagnostik und Therapie sind längst keine Zukunftsszenarien mehr“, heißt es in der Einladung. Die mit dem Einsatz künstlicher Intelligenz verbundenen ethischen Fragen und Probleme stehen im Mittelpunkt der Veranstaltung. Zu den Referenten gehört Professor Dr. Joachim Schultze aus Bonn (Foto). Sein Thema sind die Grundlagen und Potenziale künstlicher Intelligenz in der Medizin. Der Dom sprach mit ihm vor dem Ärztetag darüber, wo bereits künstliche Intelligenz in der Medizin eingesetzt wird und darüber, warum die Skepsis recht groß ist.
Herr Professor Schultze, medizinischer Fortschritt ist eigentlich mit großen Hoffnungen verbunden. Warum scheint im Fall der künstlichen Intelligenz die Skepsis zu überwiegen?
Viele Menschen haben Angst vor einer künstlichen Intelligenz, die übermenschliche Fähigkeiten entwickelt und den Menschen dadurch beherrschen könnte. Das ist die sogenannte starke künstliche Intelligenz. Doch davon sind wir noch sehr, sehr weit entfernt. Letztlich weiß man noch gar nicht, wie man das erreichen soll. Das ist ein so komplexes Thema, dass man momentan gar nicht die Mittel hat, um das zu erreichen. Es geht im Zusammenhang mit der Medizin vielmehr um die sogenannte schwache künstliche Intelligenz: um Algorithmen, die eine Sache besonders gut können, aber sonst nichts!
Zum Beispiel?
Ein Algorithmus, der etwa Bilder sehr gut erkennen kann – aber auch nur das! Das ist in keiner Weise mit der Intelligenz eines Menschen zu vergleichen. Unsere Intelligenz basiert auf so vielen Säulen, dass ein solcher Algorithmus damit schlicht nicht konkurrieren kann! Aber er kann, wenn wir ihn richtig trainieren, eine einzelne Sache möglicherweise besser als wir. In diesem Bereich gibt es große Fortschritte. Und hier ist die Skepsis auch kleiner: Bei Umfragen im klinischen Bereich lehnen fast 90 Prozent eine Diagnose allein auf der Basis von künstlicher Intelligenz ab. Fragt man aber differenzierter – etwa im Zusammenhang mit einem bestimmten Test, bei dem ein Arzt mit Computer- Unterstützung eine bessere Diagnose stellen kann – dreht sich dieses Bild: Dann sind mehr als 50 Prozent der Patienten dafür!
Das heißt, dass es auf jeden Fall mehr Aufklärung für die Patienten braucht?
Statt das Schlagwort der künstlichen Intelligenz inflationär zu nutzen, geht es darum, grundsätzlich deutlich zu machen, dass wir uns nur mit der schwachen Form der künstlichen Intelligenz befassen. Ebenso muss klar definiert werden, unter welchen Voraussetzungen wir handeln. Ein Algorithmus darf nicht für etwas trainiert werden, was ethisch nicht vertretbar ist. Die Vorgaben müssen in diesem Zusammenhang eindeutig sein. Wenn das gegeben ist, sind deutliche medizinische Fortschritte möglich, ohne dass ethische Grenzen überschritten werden.
Wie kann das in der Praxis aussehen?
Ein gutes Beispiel ist die Hautkrebs- Diagnose: Wenn sich auf der Haut kleine Veränderungen zeigen, könnte das ja ein Tumor sein. Das treibt viele Menschen um, doch nur wenige gehen regelmäßig zur Vorsorge. Die ist eigentlich einfach: Ein guter Dermatologe kann bei Veränderungen diejenigen frühzeitig erkennen, die ein Tumor oder eine Vorstufe davon sein können. Allerdings muss der Arzt viel Erfahrung haben, um gut- von bösartig unterscheiden zu können. Hinzu kommt die Gefahr der Überlastung der Ärzte, weil solche Untersuchungen, die über einen längeren Zeitraum durchgeführt werden, sehr anstrengend sind. Auch Ärzte sind nur Menschen, die irgendwann übermüdet sind.
Die Gefahr besteht bei einem Computer nicht!
Genau! Und an dieser Stelle haben sich Kollegen an der Universität Stanford überlegt, dass es möglich sein muss, einen Algorithmus mit Millionen solcher Hautveränderungen so zu trainieren, dass er die gefährlichen Veränderungen erkennen kann. 2017 wurde diese Studie veröffentlicht und sie hat gezeigt, dass dieser Algorithmus mindestens genauso gut war wie eine ganze Reihe von spezialisierten Dermatologen. Mit dem Unterschied, dass dieser Algorithmus Tag und Nacht arbeiten kann, ohne eine Pause zu brauchen.
Was heißt das für Ärzte in diesem Bereich?
Es ist auf jeden Fall eine große Chance zur ganz praktischen Unterstützung. Und entsprechend erklärt nimmt dieses Beispiel sowohl Ärzten als auch Patienten die Angst, einem Computer quasi ausgeliefert zu sein. Wenn man das weiterdenkt, könnte so ein Algorithmus in Ländern, die ein nicht so gutes Vorsorge- System wie Deutschland haben, noch viele weitere Vorteile mit sich bringen: Der Algorithmus könnte einem Arztbesuch vorgeschaltet sein, indem Bilder untersucht werden, die der Patient etwa mit dem Handy selbst gemacht hat.
Ähnlich dürfte es bei der Auswertung von Bildern aus der Computertomografie sein?
Wer sich stundenlang CT- Aufnahmen oder Röntgenbilder anschaut und auswertet, wird irgendwann müde. Dafür ist unser Gehirn schlicht nicht ausgelegt. Ein Algorithmus, der entsprechend trainiert ist, ist da effektiver! In der aktuellen Pandemie zeigen Beispiele aus China, dass auf diese Weise COVID- Patienten besser und schneller erkannt werden können. Aber auch hier die Einschränkung: Ein solcher Algorithmus erkennt das COVID-19- Muster, aber keinen Tumor oder etwa Tuberkulose!
Gewissermaßen eine Spezialbegabung?
Diese künstliche Intelligenz ist nicht mit dem zu vergleichen, was wir als Menschen können. Denn sie ist sehr eingeschränkt und deshalb eben schwach!
Wie sieht es denn mit der Akzeptanz unter Medizinern aus?
Je differenzierter das Wissen sowohl um die Möglichkeiten als auch um die Einschränkungen ist, desto größer ist das Verständnis dafür, dass das kommen wird und dass es Vorteile bringt. Voraussetzung ist, dass man sich vom Bild des Arztes als „Halbgott in Weiß“ verabschiedet: Die Entwicklung geht so schnell voran, dass man als Arzt schlicht nicht mehr alles wissen kann. Es ist unglaublich, wie sich das medizinische Wissen in den letzten 30, 40 Jahren vergrößert hat, und wie rasant diese Entwicklung weitergeht.
Stellt sich die Frage, wie man dieses Wissen beherrschen und verarbeiten kann!
Da kommt man an einen entscheidenden Punkt: Wenn das gesamte Wissen nicht mehr für den Einzelnen greifbar, aber vorhanden ist, kommt man als Arzt in eine Situation, in der man unter Umständen Fehler aufgrund fehlenden Wissens macht. Damit verbunden ist die Frage nach der Haftung. Also braucht man Expertensysteme, die helfen, dieses große Wissen erreichbar zu machen. Natürlich gibt es Unterschiede zwischen einem hochmodernen Klinikum und einer Hausarztpraxis, doch auch dort werden schon viele technische Geräte eingesetzt, bei denen im Hintergrund die schwache künstliche Intelligenz „mitläuft“.
Zum Beispiel?
Moderne EKG- Maschinen, die auch in Praxen stehen, reagieren auf Veränderungen und zeigen auf, was dahinterstecken könnte. Auch da arbeitet ein Algorithmus, der einen besonderen Verlauf mit der Wahrscheinlichkeit einer Veränderung am Herzen in Zusammenhang bringt.
Es geht also um die Rolle, die man der künstlichen Intelligenz in der Medizin zubilligt?
Konkret geht es um Assistenz und in keiner Weise darum, etwas zu installieren, was allumfassend entscheidet! Die Beispiele Hautkrebs- Erkennung oder CT- Auswertung machen es deutlich: Es handelt sich um Bereiche, in denen ganz bestimmte Dinge immer und immer wieder möglichst gut gemacht werden müssen. Diese wiederkehrenden und gleich ablaufenden Tätigkeiten, die zu einem optimalen Ergebnis führen sollen, sind die ersten, die durch künstliche Intelligenz verbessert werden können.
Was heißt das für den Alltag eines Mediziners?
Der würde sich verändern, aber meiner Meinung nach nicht zum Schlechteren: Im Moment zum Beispiel sitzen hochqualifizierte Kollegen den ganzen Tag vor Röntgenbildern und üben stundenlang die gleiche Tätigkeit aus. Diese Zeit fehlt ihnen für den Kontakt zum Patienten, was ja ihre eigentliche Aufgabe ist. Da wäre eine Maschine, die das exakter kann, doch absolut sinnvoll. Was den Arzt natürlich nicht davon entbinden würde, selbst noch einmal hinzuschauen – aber eben gezielter. Ich vergleiche das gern mit den Assistenzsystemen im Auto: Sie fahren selbst, doch in manchen Situationen tritt der Assistent auf die Bremse – wenn er entsprechend eingestellt ist.
In seiner Funktion als Back-up für den Notfall.
So etwas gibt es auch im Bereich der Hygiene: Im OP- Bereich kommen hier immer wieder Fehler vor – nicht, weil man nicht will oder sich nicht an Regeln hält, sondern weil Menschen schlicht und einfach Dinge falsch machen, die im Moment gar nicht auffallen. Hier kann die KI Fehler aufspüren und reagieren: etwa durch den Hinweis, dass aus Unaufmerksamkeit etwas berührt wurde und so für den Patienten Infektionsgefahr besteht. In diesem Moment würde der KI- Assistent sagen: Stopp und die Handschuhe noch einmal wechseln! Allerdings wäre dieses System wieder überhaupt nicht in der Lage, sich ein Röntgenbild anzuschauen.
Ein Mensch könnte beides!
Genau, das macht die menschliche Intelligenz aus! Diese Beispiele zeigen eben auch, dass das nicht miteinander vergleichbar ist. Letztlich wird der Mensch allein aufgrund seiner Erfahrung dieser KI noch auf lange Zeit überlegen bleiben.
Also sind Befürchtungen einer „Machtübernahme“ mit Blick auf Medizin und Gesundheitssystem unbegründet? Schließlich ist Effizienz ja auch hier immer Thema!
Die Frage der KI in der Medizin ist untrennbar mit ethischen und moralischen Fragen verbunden, und deshalb sind an den entsprechenden Diskussionen auch immer Ethiker und Philosophen beteiligt. Konkret heißt das, einen Katalog aufzustellen, der bestimmte Dinge ausschließt; etwa eine Steigerung der Effizienz, die nur eine Kostenersparnis bringt, aber keine Verbesserung der Versorgung. Ebenso wichtig ist, Abläufe immer wieder zu überprüfen und zu fragen, ob das ursprünglich angestrebte Ziel noch im Mittelpunkt steht. Aber dieses ständige Nachsteuern hat man ja nicht nur bei der KI. Die Grundeinstellung, dass alles, was man tut, dem Wohl des Patienten dienen soll, gilt ja für alle Bereiche der Medizin. Angesichts der technischen Entwicklung stellen sich diese Fragen aber immer öfter und müssen immer differenzierter beantwortet werden.
Zur Person
Joachim L. Schultze ist Direktor für Systemmedizin am Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) und Gründungsdirektor der PRECISE- Plattform für Single Cell Genomics and Epigenomics am Deutschen Zentrum für Neurodegenerative Erkrankungen und der Universität Bonn. Mit seiner eigenen Forschungsgruppe und der PRECISE- Plattform verfolgt er das Ziel, Einzelzelltechnologien und Ansätze des maschinellen Lernens in den klinischen Bereich zu bringen. Er leitet mehrere Programme zur Anwendung von Einzelzelltechnologien, speichergestütztem Rechnen und Schwarm- Lernen bei Patienten mit Alzheimer, chronisch obstruktiver Lungenerkrankung, Lungenkrebs oder HIV.