Einführung in die Forschung
Lieber Massimo: Wie man Machine Learning für die Klinik nützlich machen kann, ist sicherlich die zentrale und auch ungelöste Frage, mit der wir uns in der Forschung beschäftigen. Seit November 2019 darf ich das Machine Intelligence in Clinical Neuroscience & Microsurgical Neuroanatomy (MICN) Laboratory der Klinik für Neurochirurgie am Universitätsspital Zürich (www.micnlab.com) leiten, und wie man in dem langen Namen schon vermuten kann, ist genau eben die Entwicklung von klinisch nützlichen Anwendung maschineller Intelligenz unser Fokus. Mit Machine Learning kann man alles mögliche anstellen, aber es gibt kaum Evidenz für einen tatsächlichen klinischen Nutzen von den tausenden Algorithmen, die bereits entwickelt wurden. Schlussendlich sollte Forschung in der Medizin ja immer das Ziel haben, einen direkten Benefit an Patient oder Arzt zu bieten: Zum Beispiel entweder durch präzisere und schnellere Diagnostik, durch genauer auf jeden Patienten zugeschnittene Therapien, oder durch Vermeidung unnötiger Risiken.
"Es gibt kaum Evidenz für einen tatsächlichen klinischen Nutzen von den tausenden Algorithmen, die bereits entwickelt wurden"
Von ärztlicher und gesundheitspolitischer Seite geht es natürlich auch immer mehr um Steigerung der Effizienz durch maschinelle Intelligenz. Es wird an vielem geforscht, aber die wenigsten Algorithmen halten schlussendlich Einzug in den Klinikalltag. Unser Team besteht fast gänzlich aus medizinisch tätigen Forschern – wir sind also «von Haus aus» keine Data Scientists, sondern Neurochirurgen – und wir glauben, dass dies auch der Schlüssel ist, um klinisch nützliche Anwendungen zu erschaffen. Konkret arbeiten wir deshalb nicht nur an «klassischen» Anwendungen von Machine Learning (so zum Beispiel klinische Vorhersagemodelle oder automatische Interpretation von medizinischer Bildgebung), welche eben bislang wenig klinischen Nutzen gezeigt haben, obwohl diese Gebiete schon sehr weit entwickelt sind und lange existieren.
Prognostizieren und Bilder interpretieren können Mediziner ja sehr gut, auch ohne Algorithmus. Stattdessen fokussieren wir immer mehr auf Fragestellungen, die eben nicht von medizinischen Experten erledigt werden können. Zum Beispiel können gewisse Mutationen von Hirntumoren bereits am MRT erkannt werden, kann Strahlenbelastung minimiert werden durch Umwandlung von MRT oder Röntgenbildern zu synthetischen CTs, oder können wir Neurochirurgische Eingriffe sicherer machen durch automatische anatomische Navigation in Echtzeit.
Visionen für die Zukunft
Uns liegt eben der Einzug von maschineller Intelligenz in die Klinik sehr am Herzen. Deshalb möchte ich vor allem an den oben genannten Projekten weitermachen, welche wirklich ein riesiges Potential für Patienten haben könnten. Spezifisch wollen wir es in Zukunft ermöglichen, dass aus einem einfachen biplanaren Röntgen des Schädels oder der Wirbelsäule ein synthetisches CT erstellt werden kann. Meine Vision ist es, dass der dafür benötigte Algorithmus dann weltweit eingesetzt werden kann – das ist der Vorteil von Innovation in Software statt in Hardware (wie Robotik oder teure Instrumente oder Laboruntersuchungen), es kann überall kostengünstig implementiert werden. Die Vorteile kann man sich nur ausmalen: Mit dieser Technologie würde Millionen von Patienten ein Zugang zu Schichtbildgebung mittels CT eröffnet werden, denn ein Röntgengerät gibt es praktisch überall weltweit. In der Schweiz sogar oft beim Hausarzt in der Praxis. Auch instabile Patienten, bei denen ein CT-Transport aus IPS oder Schockraum zu riskant wäre, könnten so regelmäßig untersucht werden.
"Spezifisch wollen wir es in Zukunft ermöglichen, dass aus einem einfachen biplanaren Röntgen des Schädels oder der Wirbelsäule ein synthetisches CT erstellt werden kann."
Längerfristig wäre das Ziel eben nicht nur diese Algorithmen zu entwickeln, sondern diese auch weltweit zur Anwendung zu bringen und dann vor allem – hier kommt es wieder – Implementationsstudien durchzuführen. Denn genau das ist meine zentrale Message: Auch wenn wir vieles können mit Machine Learning, heißt das noch lange nicht, dass diese Anwendungen auch einen Nutzen für Patienten haben. Algorithmen können auch potenziell schädlich sein, vor allem wenn sie nicht gut entwickelt werden und nicht zuerst rigoros validiert werden.
Das bringt mich zu einem weiteren persönlichen Ziel: Die Demokratisierung von maschineller Intelligenz. Es ist wirklich einfach geworden, um Algorithmen zu entwickeln und um Programmieren zu lernen. Aber um gute Anwendungen zu erschaffen, braucht es schon eine professionelle Begleitung, denn es kann wirklich viel schiefgehen, ohne dass man es selber bemerkt. Das Teaching und die Förderung von Nachwuchsforschenden machen mir persönlich am meisten Spaß. Wir halten viele Vorträge und haben auch Bücher zum «How I do it» für Mediziner herausgegeben – Die größte Belohnung ist es dann wirklich, um die Resultate derjenigen zu sehen, welchen man das Ganze beigebracht hat.
Herausforderungen und Ausbildung
Wir müssen AI-mündig werden. Der Arztberuf ändert sich jedes Jahrzehnt massiv, Therapien, die in den 2010er Jahren Standard waren, sind teils schon total veraltet. Die meisten Kliniken halten natürlich regelmäßige Fortbildungen und Journal Clubs, jedoch wird hier AI kaum integriert, sodass die meisten Ärzte gute und sichere Anwendungen von AI kaum von potenziell gefährlichen unterscheiden können. So gut wie wir eine randomisierte Studie kritisieren können, so wenig bewandert sind wir bei Publikationen rund um AI. Vieles klingt erstmal gut, ist dann aber bei genauerem Hinsehen totaler Schwachsinn. In der mehr technischen Forschung zur AI (Data Science) gelten momentan noch nicht die strengen Regeln bezüglich Reproduzierbarkeit und ausführlicher Validierung. In der medizinischen Forschung – und in der Medizin allgemein natürlich – wissen wir aber, wie wichtig es ist, dass Studien erstmal unabhängig repliziert werden, bevor neue Medikamente überhaupt in die Nähe von Patienten kommen. Die Waage zwischen epidemiologisch strengen Methoden aus der medizinischen Forschung und dem bisher «Laissez-faire» der AI-Forschung wird sich einpendeln müssen. Wichtig ist zu verstehen, dass der Computer ganz leicht gute Resultate vortäuschen kann und diese momentan auch trotzdem leicht publiziert werden – das heißt noch lange nicht, dass der Algorithmus auch tatsächlich funktioniert.
"Vieles klingt erstmal gut, ist dann aber bei genauerem Hinsehen totaler Schwachsinn."
Sicherlich muss nicht jeder Medizinstudent selber mit AI arbeiten können. Aber ein Grundverständnis über Methoden wäre schon wünschenswert. Eben wie wir es bei randomisierten Studien auch tun, sollten Medizinstudenten fähig sein, die Biases einer AI-Studie zu erkennen, und einzuschätzen, wie gut die Methode validiert ist und folglich wie sehr man einer Publikation trauen kann. So einen «Shit-Detektor» zu entwickeln wird eminent wichtig werden in der Klinik. Nichtsdestotrotz kann ich jedem Medizinstudenten raten, wenigstens ein bisschen Programmieren zu lernen – es ist schon ein mächtig nützlicher Skill für später.
Anwendungsbereiche von KI
Wie gesagt muss das oberste Ziel sein, dem Patienten oder zumindest dem Arzt einen messbaren Vorteil zu geben. Das größte Potential haben dabei denke ich Anwendungen, die eben auch von Experten bisher unmöglich umzusetzen waren, wie die synthetische Bildgebung. Da wir stets mehr Bildgebung produzieren als Ärzte, ist dies wahrscheinlich insgesamt der wichtigste Ansatzpunkt. Spezifisch bei uns in der Neurochirurgie heißt das zum Beispiel, unnötige Strahlenbelastung zu vermeiden durch synthetische, aus MR-Bildern hergestellte CT-Bilder. Oder eben CT-Bilder aus Röntgen. Da gibt es wirklich einen klar ersichtlichen Vorteil für Patienten.
Andere Anwendungen wie eben Bildinterpretation oder Vorhersagemodelle haben sich bisher in den meisten Fällen als nicht besser als medizinische Experten erwiesen. Trotzdem können gut validierte Algorithmen in Anbetracht der zunehmenden Spezialisierung doch nützlich werden: Zum Beispiel, wenn diese eine Bildinterpretation oder Prognose auch in abgelegenen Gebieten mit genau so hoher Genauigkeit wie durch Experten an einem Zentrum erlaubt.
Das denke ich nicht. Ich stelle mir das vor wie die Diskussion mit dem weißen Arztmantel: Oft wird gesagt, dass der Mantel eine Barriere zwischen Arzt und Patient schafft. Das ist natürlich nicht so, denn durch die klare Rollensetzung kann man dem Patienten faktisch näher treten als ohne. Bei gut validierter AI ist das genauso: Sie kann uns potenziell helfen, Patienten besser zu behandeln, und die Fragen der Patienten besser zu beantworten. Patienten dürfen natürlich erwarten, dass der Arzt die beste und modernste Behandlung anbietet – und das wird in Zukunft sicher auch AI beinhalten.
Gesellschaftliche Akzeptanz
Wie auch bei normaler Diagnostik und Therapie bleibt der Einsatz einer jeglichen AI-Anwendung fakultativ für Patient und Arzt. Es ist wie auch sonst ganz wichtig, den Patienten gut zu informieren – auch über den Einsatz von AI – und dann gemeinsam zu entscheiden mit allen vorhandenen Informationen. Natürlich werden einige Patienten erstmal ablehnend gegenüber dem Einsatz von AI sein: Aber wenn man erklärt, dass der anzuwendende Algorithmus einen ganz klaren Vorteil in Studien gebracht hat, dann kann sich das schnell ändern.
Weil dafür also die gleichen Prinzipien gelten, die wir als im Gesundheitswesen arbeitende sowieso vertreten sollten, sind wir schon bereit, um sichere, gut getestete Algorithmen einzusetzen. Die Sache ist einfach so, dass die allermeisten Algorithmen noch nicht ein genügendes Niveau an Validierung erreicht haben. Was sich momentan noch sehr in Wandlung befindet, ist das rechtliche Regelwerk hinter der Validierung und Verbreitung von AI in der Medizin. Hier braucht es noch viel, um eben sicherzustellen, dass Algorithmen sauber entwickelt, gut getestet und gerecht verteilt werden.
Sicherlich unterscheidet sich das je nach Fachgebiet, ja. In der Chirurgie wird es in Zukunft ein Thema werden, dass die Algorithmen keine Überhand nehmen im Sinne, dass junge Chirurgen in Ausbildung durch starke Unterstützung durch AI potenziell nicht mehr selber ohne Unterstützung operieren lernen – Das ist aber meiner Meinung nach eher unwahrscheinlich, zumal Algorithmen sogar eine bessere Lernkurve erlauben könnten in Anbetracht der abnehmenden Fallzahlen bei jedoch zunehmender Komplexität, die ein einzelner Chirurg in Ausbildung in Zukunft sehen wird. Zum Beispiel haben wir einen Algorithmus entwickelt, der im Operationsmikroskop oder Endoskop anatomische Strukturen erkennt und anzeigt. Man könnte natürlich argumentieren, dass so mikrochirurgisch-anatomisches Wissen und Erfahrung verloren geht. Andererseits führt diese Unterstützung aber auch dazu, dass die chirurgische Anatomie in einer steileren Lernkurve erlernt werden kann und dabei vor allem im Anfangsstadium Komplikationen durch anatomische Desorientierung vermieden werden können. Es ist also eine vorsichtige Balance zwischen Selbständigkeit und Unterstützung nötig.
In der Medizin wird es auch ein Thema werden, dass mit Vorhersagemodellen die Effektivität einer Behandlung, zum Beispiel einer teuren Immuntherapie, eingeschätzt werden könnte für jeden Patienten. Oder, dass Prognosen bei schwerem Schädelhirntrauma bereits im Schockraum gemacht werden könnten. Was auf jeden Fall vermieden werden soll, ist dann, dass Versicherungen beispielsweise anhand solcher Algorithmen Kostengutschriften ablehnen oder Patienten mit Behandlungswillen eine Behandlung verweigert wird. Wie gesagt müssen die Informationen, welche uns zusätzlich durch AI geliefert werden, zwar in Betracht genommen werden (wie jeder Score, jede Information, die wir jetzt benutzen) – es muss aber eine Symbiose bleiben zwischen AI und Arzt, zwischen Wissenschaft und Erfahrung – und eben keine Parasitose.
Wo mit großen Datenmengen gearbeitet wird, dort besteht ja auch jetzt teils schon eine Symbiose: In der Radiologie und Labormedizin wird vieles erleichtert durch automatische Auszählung, Klassifizierung, Volumetrie. Wo durch Automatisierung minutiöse Tasks effizienter erledigt werden können, scheint es wenig Widerstand gegen AI zu geben. Trotzdem muss auch dort achtgegeben werden, dass AI nicht ganz alleine arbeitet. Die Einschätzung eines Radiologen in einer interdisziplinären Besprechung ist natürlich unabdingbar. Wir werden uns nie 100% auf automatisierte Diagnostik verlassen können – es braucht immer Safeguards und menschliche Interpretation mit Einbezug der Charakteristika und Symptome des Patienten. In solchen Fällen gibt es aber einige zukunftsträchtige Konzepte, die eben nicht den Spezialisten ersetzen, sondern nur kräftig unterstützen: Zum Beispiel gibt es Algorithmen, welche eine Vorbeurteilung von Schädel-CTs vornehmen, potenziell gefährliche und dringende Befunde erkennen können, und dann die Worklist des Radiologen entsprechend neu gliedern, sodass dringendere Fälle rascher bearbeitet werden können.
"Wir werden uns nie 100% auf automatisierte Diagnostik verlassen können"
Implementation Science ist ganz zentral. Es reicht eben nicht, dass Algorithmen «in silico» validiert werden und publiziert werden. Wichtig ist auch, dass Interfaces für Algorithmen benutzerfreundlich angelegt werden, und dass diese automatisch grobe Fehler erkennen. Die Sicherheit geht immer vor in der Medizin – first, do no harm. Klar, auch dann kann die Anwendung für Einige überfordernd sein – aber das ist ja nicht anders als jede andere Innovation: Es braucht einfach Zeit, um das Paradigma zu wechseln.
Zukünftige Entwicklungen
Es ist interessant, wie gesundheitspolitisch für die Ärzteschaft eine zunehmende Spezialisierung, aber für die Pflege eine zunehmende Generalisierung angestrebt wird. Nichtsdestotrotz führt das bei allen schlussendlich dazu, dass jeder Einzelne mehr Wissen, mehr Fertigkeiten, mehr Zertifikate, mehr Kurse nachweisen muss. Parallel dazu wird durch die zunehmende Dokumentation und Bürokratie die Zeit am Patientenbett für alle deutlich reduziert. Hoffentlich kann AI hier teils Abhilfe bieten durch Automatisierung von repetitiven und zeitaufwendigen Aufgaben. Aber auch mit AI wird diese Entwicklung – wohl oder übel – wohl noch weiter voranschreiten. Wir können nur hoffen, dass die Bürokratisierung in der Medizin eine «Bubble» ist, und bald platzt und zu einer Rückkehr der Normalität führt. Wir sehen ja international, zum Beispiel im Vereinigten Königreich, wie schädlich eine solche Entwicklung für Patienten und Gesundheitspersonal sein kann. Ich denke, in dem ganzen Tumult muss man alles Politische während der Arbeit ausblenden und darf man nicht vergessen, wie sehr der eigentliche Job – mit Patienten zu arbeiten – doch Spaß macht. Nichtsdestotrotz müssen wir uns wohl oder übel als gesamte Ärzteschaft und Pflegschaft viel aktiver politisch gegen diese Kommerzialisierung und Bürokratisierung einsetzen.
"Nichtsdestotrotz müssen wir uns wohl oder übel als gesamte Ärzteschaft und Pflegschaft viel aktiver politisch gegen diese Kommerzialisierung und Bürokratisierung einsetzen."
Da habe ich wirklich gar keine Bedenken. Als ChatGPT das Staatsexamen bestanden hatte, gab es in den Medien einen riesigen Aufschrei. Dabei wissen wir alle, dass das reine Lösen von Prüfungsfragen nicht im Geringsten den Arztberuf abdeckt. Das gilt auch für alle anderen Anwendungen von AI, welche eigentlich alle auf eine ganz spezifische Fragestellung (zum Beispiel Erkennen von Blut auf einem CT-Bild) abgestimmt sind. Medizin ist so viel mehr als einzelne Fragestellungen, Patienten sind so viel mehr als Zahlen. Es herrscht immer noch viel Unwissen über AI, und das führt zu Angst – teils auch zurecht, denn wie erwähnt funktioniert vieles noch nicht so wie es soll, und ist das Regelwerk für AI in der Medizin noch nicht ausgereift. Trotzdem erwarte ich, dass AI dem Arztberuf eher helfen als schaden wird.
Man sieht ja, wie sehr die mehr generalisierten AI-Modelle wie ChatGPT oder Bard innert kürzester Zeit viele Aspekte des Lebens verändert haben. Ich denke, es ist eine traurige Realität, dass wir die Hilfe solcher Anwendungen einfach akzeptieren werden müssen, angesichts des Fachkräftemangels und dem zunehmenden Wunsch der Bevölkerung und der Politik, in der Gesundheitsbranche eher zu sparen als mehr auszugeben. Solche Technologien, wie zum Beispiel der oben beschriebene Chatbot zur Prävention des Delirs, sollten zuerst mal gründlich validiert werden (vielleicht steigert der Einsatz des Chatbots ja auch paradoxerweise das Delirrisiko), aber falls in Studien als nützlich erachtet, dann schon auch den Patienten angeboten werden. Viele Patienten werden das schlussendlich wahrscheinlich ablehnen, aber das Schöne in der Medizin ist ja: Jeder Patient ist ein Individuum, und ich bin mir sicher, dass einige Patienten ganz zufrieden damit wären. Bezüglich vulnerablen Patienten: Schlussendlich ist jeder Patient prinzipiell vulnerabel. Deshalb müssen wir die gleichen Sicherheitsstandards wie bei Medikamenten anwenden. Zum Beispiel ist der oben beschriebene Algorithmus kaum klinisch validiert. Wenn er in einer klinischen Studie bei einigen Patienten Delir verschlimmert, soll er nicht zugelassen werden. Und auch nach Zulassung sollten im Rahmen der Vigilance auch Nebenwirkungen rückgemeldet und zentral erfasst werden. Wir dürfen den AI-Boom als Ärzte nicht einfach so hinnehmen und unterstützen, sondern sollten kritisch sein und Technologien nur in die Klinik bringen, falls sie erwiesenermaßen sicher und effektiv sind – nicht einfach, weil es «cool tönt».
"Wir dürfen den AI-Boom als Ärzte nicht einfach so hinnehmen und unterstützen, sondern sollten kritisch sein und Technologien nur in die Klinik bringen, falls sie erwiesenermaßen sicher und effektiv sind – nicht einfach, weil es «cool tönt»."