Seien es Radiologen, Krebsspezialisten oder Herzmediziner: Momentan gibt es kaum einen medizinischen Fachkongress, der sich nicht mit den Chancen und Risiken der Digitalisierung in der Medizin beschäftigt.

Dabei wiederholen sich zwei zentrale Aussagen: Ja, die Digitalisierung und die künstliche Intelligenz eröffnen spannende Möglichkeiten für den Einsatz in der Medizin. Aber: Nein, Supercomputer und Algorithmen werden Ärzte und die Behandlung von Mensch zu Mensch nicht ersetzen können. Die Rede ist von künstlicher Intelligenz (KI) als Assistenzsystem für den Arzt – oder wie es Reinhard Strametz von der deutschen Hochschule RheinMain formuliert: „Die Vorteile menschlicher und künstlicher Intelligenz sollten kombiniert werden, das kann die Fehleranfälligkeit auf beiden Seiten reduzieren.“

Jedes Jahr werden drei Millionen medizinische Artikel publiziert: Eine Datenmenge, die für den einzelnen Arzt nicht zu erfassen ist. „Supercomputer“ hingegen können mit Millionen Seiten an Studien gefüttert werden, daraus lernen und Schlüsse ziehen. „Die KI lernt von den Millionen Datensätzen aus der ganzen Welt, so viele Fälle kann ein Arzt nie zu Gesicht bekommen“, bringt KI-Pionier Sepp Hochreiter das enorme Potenzial auf den Punkt.

Es lauern Gefahren

So sind trainierte Algorithmen schon besser darin bösartige Melanome von harmlosen Muttermalen zu unterscheiden als Hautärzte. KI-Systeme können darauf trainiert werden, in Bildern aus CT oder MRT Tumore zu erkennen. In Zukunft könnte KI neue Biomarker – biologische Merkmale im Körper, die typisch für Krankheiten sind – finden, um Krankheiten frühzeitig zu erkennen.

KI’s könnten auch voraussagen, bei welchen Patienten Therapien wirken, bei welchen nicht – auf Basis gigantischer Datenmengen. Solche Anwendungen sind aber nur so gut wie die Daten, mit denen sie gefüttert werden – und genau hier liegt eine der Gefahren, die mit KI in der Medizin einhergeht: Wird eine Einseitigkeit (“Bias“) in den Algorithmus eingebaut – was auch unbeabsichtigt, durch die persönlichen Einstellungen eines Entwicklers passieren könne – würden gewisse Patienten benachteiligt behandelt werden.

Auch Strametz zeigt auf: „Ohne menschliche Kontrolle treffen Algorithmen irgendwann Entscheidungen über Leben und Tod.“ Sind diese Entscheidungen ethisch akzeptabel? Verwehrt einem der Algorithmus eine lebensrettende Therapie, wenn die Heilungschancen unter einem errechneten Prozentwert liegen? Welche ethischen Sicherheitsnetze sind notwendig? „Diese Fragen müssen vor der breiten Einführung von KI in der Medizin geklärt werden“, sagt Strametz, „also jetzt!“

Weniger Tierversuche

Daten sind Basis jeder künstlichen Intelligenz und Pharmaunternehmen haben mit ihren Testreihen einen echten Datenschatz. Das erkannte man bei Boehringer-Ingelheim und digitalisierte die Forschung der vergangenen 60 Jahre. Auf diesen setzt „ADAM“ auf. Das KI-Programm vereinfacht die Entwicklung neuer Wirkstoffe.

Beim Entwurf eines Wirkstoffmoleküls unterstützt ADAM die Forscher in dem es Bausteine vorschlägt oder vor möglichen Problemen warnt. Durch ADAM habe sich die Zeit vom Beginn der Entwicklung bis zum ersten klinischen Testkandidaten halbiert. ADAM biete hier Unterstützung, sagt Innovationschef Michel Pairet. „Die finale Entscheidung trifft immer ein Mensch.“

In einem weiteren Schritt soll das System erkennen, ob und wie giftig das neue Molekül ist. „Wird ein bestimmter Wert überschritten, können wir sagen: Ok, dieses Substanz brauchen wir nicht in Mäusen zu testen. Hier werden wir Tierversuche sparen“, erklärt Pairet. Eine Herausforderung ist die neue Zusammensetzung der Forscherteams. Data-Scientists arbeiten mit Chemikern und Biologen zusammen.