Dietmar Bayer, Präsident der ÖG Telemed und stellvertretender Obmann der Bundeskurie niedergelassene Ärzte, erklärt im Interview mit Sascha Bunda, wie disruptiv sich die Künstliche Intelligenz auf fast alle Lebensbereiche und natürlich auch die Medizin auswirken kann und wie wichtig eine umfassende und reflektierte Beschäftigung mit dem Thema ist.
Das Thema Künstliche Intelligenz weist seit langem eine unglaubliche Dynamik auf. Wie nehmen Sie den aktuellen Status des Fortschritts wahr? Dietmar Bayer: Die neuesten Entwicklungen beispielsweise im Mobiltelefonbereich zeigen uns klar, wie wenig wir auf das Thema Künstliche Intelligenz vorbereitet sind. Bei den neuen Google-Handys zum Beispiel ist es eine Sache von Sekunden, nicht nur Elemente aus einem Bild zu entfernen, sondern auch, Elemente durch völlig andere zu ersetzen. Das hat beispielsweise eines der führenden Tech-Magazine der Welt dazu bewogen, das mit sehr drastischen Worten, die man hier nicht wiedergeben kann, zu kommentieren – und zwar dahingehend, dass niemand auf diesem Planeten darauf vorbereitet ist, welche Konsequenzen daraus entstehen können.
Welche Folgen meinen Sie da beispielsweise? Bislang war es eher Konsens, dass Bilder tatsächlich die Wirklichkeit abbilden – „pics or it didn’t happen“, „Ohne Bilder ist es nie passiert“, formuliert man beispielsweise oft in der Online-Kommunikation, wenn man einen Beweis für eine Behauptung verlangt. Natürlich gab es immer schon Bildmanipulationen, aber heute ist sie für jeden möglich und wird immer professioneller und unauffälliger. Wenn wir diesen Konsens des Realitätsanspruchs nun verlassen müssen, dann ist einer Manipulation von Tatsachen Tür und Tor geöffnet – und das in fast allen Lebensbereichen, sei es nun bei falschen Nachrichten, die fatale Konsequenzen haben können oder auch in Wahlkämpfen, wo sich die Zukunft ganzer Nationen entscheidet. Das kann man herunterbrechen bis zu vergleichsweise banalen Folgen bei Rezensionen von Hotels, Restaurants oder ähnlichem. Aber auch hier hängen oft Existenzen von Menschen daran. Und natürlich kann das auch Folgen in der Medizin haben.
Was könnten diese etwa umfassen? Ich denke da zum Beispiel an Befunde, die KI-gestützt erstellt wurden. Wir als Ärztekammer fordern hier ganz klar eine entsprechende Kennzeichnungspflicht entsprechend zu den KI-generierten Bildern, von denen wir vorher gesprochen haben – und zwar eine deutlich strengere Kennzeichnungspflicht. KI-gestützt erstellte Befunde müssen aus unserer Sicht mit einem nicht entfernbaren Wasserzeichen gekennzeichnet werden. Bei Google ist es aktuell so, dass ein Hinweis auf KI-Bearbeitung in den sogenannten Metadaten eines Bildes vorhanden ist. Das sehe ich aber im medizinischen Zusammenhang als nicht ausreichend an. Schon bei Google ist es so, dass diese Hinweise nicht schwer zu entfernen sind. Jetzt wird man einen Giganten wie Google, der auf Verkäufe und Marktanteile angewiesen ist, noch vergleichsweise einfach reglementieren können – aber wer kann uns denn garantieren, dass nicht bald auch Firmen oder Institutionen, denen es nur um die Manipulation geht, ähnliche Funktionen schaffen?
Die Ärztekammer fordert auch, dass die Letztentscheidung immer beim Arzt bleiben muss. Warum ist das so wichtig?
Unser Zugang war immer, dass technische Tools nur unterstützende Hilfsmittel in Diagnose und Therapie sein, aber niemals einen Ersatz für den Arzt darstellen können. Das ist gerade im Zusammenhang mit Künstlicher Intelligenz wichtig wie nie zuvor. Denn ich darf meine Diagnose nicht blind einer Maschine anvertrauen, deren Entscheidungen ja immer mehr zu einer Black Box geworden sind – ich kann kaum noch nachvollziehen, wie das Tool zu einer Einschätzung gekommen ist. Ich sage auch ganz ehrlich, dass wir Ärzte uns hier besonders an der Nase nehmen müssen: Auch wenn die KI-Einschätzung in 99 von 100 Fällen korrekt sein mag, darf ich niemals davon ausgehen, dass die KI ohnehin immer richtig liegt. Auch der 100. Patient braucht genau dieselbe Aufmerksamkeit wie der erste. Wir wissen ja, wie gerne beispielsweise ChatGPT mit Halluzinationen auf Fragestellungen reagiert, wenn die Trainingsdaten unzureichend oder auch einfach falsch sind. Apropos Trainingsdaten: Hier erleben wir eine rasante Schieflage, weil derzeit Privatunternehmen ihren Firmenwert massiv steigern, indem sie ihre KI mit öffentlichem Datenmaterial trainieren. Wir als Teil des öffentlichen Gesundheitswesens werden dann die Kosten stemmen müssen, das wird neben der personalisierten Medizin das nächste Fiasko. Die Lösung kann nur sein: OpenAI, als public domain in den Algorithmen der KI. Von öffentlichen Daten muss auch die Öffentlichkeit profitieren.
Zudem sehe ich eine weitere große Gefahr drohen, wenn wir die Künstliche Intelligenz von der ärztlichen Kompetenz abkoppeln.
Die da wäre? Wir sehen jetzt schon international Beispiele, wo Diagnose und Therapie immer mehr automatisiert ablaufen – vor allem Japan ist in einer Vorreiterrolle bei der Implementierung von Künstlicher Intelligenz in die Medizin. Auch wenn das dortige Gesundheitsministerium betont hat, dass KI immer nur zur Unterstützung der Ärzte dienen kann, sehe ich schon die Gefahr, dass wir irgendwann in nicht ferner Zukunft an einem Punkt ankommen, an dem Patienten in eine Diagnose-Kabine gehen, dort mittels Sensoren „untersucht“ werden und von der Künstlichen Intelligenz Diagnose und Therapie bekommen, ohne dass jemals ein Arzt in diesen Prozess involviert ist. Denn auch in Japan sind Ärztemangel und das Problem medizinischer Versorgung in ländlichen Bereichen nicht unbekannt und KI wird immer wieder als Lösungskonzept genannt und mit verkürzten Genehmigungsverfahren forciert. Daher halte ich es für keinesfalls ausgeschlossen, dass auch in vielen anderen Ländern in naher Zukunft ein ähnlicher Weg eingeschlagen wird.
Was wären die Konsequenzen aus so einem System? In sehe darin die Gefahr einer glasklaren Zwei-Klassen-Medizin: Wer es sich leisten kann, wird künftig zum Arzt gehen können, für die anderen kommt die medizinische Versorgung aus dem Computer. Das kann aus meiner Sicht kein Weg für die Zukunft sein und auch kein System, das ich den kommenden Generationen hinterlassen möchte. Der Patient muss sich jederzeit drauf verlassen können, dass er die bestmögliche Behandlung bekommt und nicht völlig Algorithmen überlassen wird. Die bestmögliche Behandlung kommt von einem Arzt, der über die besten Werkzeuge und Tools verfügt und sie richtig einzusetzen weiß.
Denn KI hat ja durchaus auch Vorzüge zu bieten. Selbstverständlich – und ich möchte auch davor warnen, die KI zu verteufeln und vollumfänglich abzulehnen. Zum einen können wir diese Entwicklung ohnehin nicht aufhalten, wir können nur einen vernünftigen Umgang damit lernen. Dazu gehört auch, die Chancen und Möglichkeiten zu erkennen – gerade in der Interpretation bildgebender Verfahren gibt es viel Potenzial zu heben und dieses wird noch viel größer werden, je mehr Material wir den Maschinen als Lernmaterial geben. Aber dennoch muss klar sein: Die Letztverantwortung muss beim Arzt liegen und bei der Implementation neuer Tools und Technologien muss die Ärzteschaft voll eingebunden werden. Nur so kann sichergestellt werden, dass die neuen Technologien eine Unterstützung und keine zusätzliche Belastung und/oder Fehlerquelle sind. Wir müssen schauen, dass gewisse Standards aufrecht bleiben. Und wir müssen danach trachten, den Wandel mitzugestalten. Dabei sind wir Ärzte mit unserer Expertise und unserer Erfahrung im Gesundheitswesen ganz besonders gefordert, uns einzubringen, denn es besteht natürlich auch die Gefahr von Fehlentwicklungen. Nur, weil etwas einfach und günstig ist, ist es noch lange nicht medizinisch sinnvoll.
Welchen Beitrag zu diesem Ziel kann hier die Ärztevertretung leisten? Schon jetzt betonen wir stets unsere ärztlichen Grundsätze in der Diskussion um Digitalisierungsthemen und haben dem Kapitel auch entsprechenden Raum und Stellenwert in unserem „Regierungsprogramm“ eingeräumt. Auch seitens der ÖGTelemed werden wir unsere Anstrengungen noch deutlich intensivieren, um die Kolleginnen und Kollegen sowie die politischen Entscheidungsträger in diesem Land für das Thema Künstliche Intelligenz zu sensibilisieren. Zudem brauchen wir auch neue Impulse für die Schulung von Medienkompetenz und kritischer Medienkonsumation. Denn auch ich bin klar der Meinung: Niemand von uns ist darauf vorbereitet, welche disruptive Kraft mit dieser Entwicklung auf uns hereinbrechen wird. Nur, wenn wir uns frühzeitig damit befassen, können wir den Prozess mitgestalten und ethische Regeln aufstellen. Und mit frühzeitig meine ich: jetzt.
© Österreichische Ärztezeitung Nr. 18 / 25.9.2024