-
0
Frage: Wer trägt die Verantwortung bei Fehlern einer KI basierten Diagnose oder Therapieentscheidung zur Behandlung, der Arzt, der Entwickler oder das System?
- Stichworte:
-
Lucas Ribeiro Beantwortet am 26 Nov 2024:
Das ist ein äußerst wichtiges Thema! Vielen Dank für die Frage!
Die Beziehung zwischen Ärzten, Technologieentwicklern, Krankenhäusern, Krankenkassen und der Regierung muss hinsichtlich des Einsatzes von KI in der medizinischen Praxis sehr klar sein. Bevor KI-Systeme in der Medizin eingesetzt werden, müssen alle Schritte, die zu einer Entscheidung führen, transparent und nachvollziehbar sein.
Ein Arzt, der ein fehlerhaftes oder schlecht trainiertes KI-Modell ignoriert, muss die Konsequenzen seiner Entscheidung tragen. Wenn jedoch trotz der Professionalität und Kompetenz des medizinischen Teams ein Fehler auftritt, z. B. aufgrund eines „Bugs“ in der Programmierung, sollte das KI-Unternehmen zur Verantwortung gezogen werden. Die Krankenhäuser und Versicherungen müssen außerdem sicherstellen, dass ihre Teams angemessen geschult und auf dem neuesten Stand sind, um effizient die richtige Entscheidung zugunsten des Patienten zu treffen.
Wie man sieht, handelt es sich hier um eine komplexe Situation mit vielen Ebenen. Die Gesundheit und das Leben eines Menschen sollten jedoch immer die medizinischen Entscheidungen leiten – mit oder ohne KI.
-
Stefanie Remmele Beantwortet am 26 Nov 2024:
Lucas hat recht, am Ende ist es mit allen Produkten dasselbe. Wenn der Fehler im Produkt liegt, haftet der Hersteller, egal ob mit oder ohne KI. Was vielleicht noch wichtig ist zu sagen: KI-unterstütze Medizinprodukte werden in der Regel strenger geprüft (gelten generell als Risiko-reicher).
-
Jens-Bastian Eppler Beantwortet am 26 Nov 2024:
Das ist eine wichtige Frage, die man sich stellen muss, insbesondere wenn die Systeme fehleranfällig sind. Und dafür gibt es meines Wissens auch noch keine ausreichende Gesetzgebung (Ich bin allerdings kein Jura-Experte).
Allerdings gehe ich davon aus, dass diese Frage in naher Zukunft in den Hintergrund treten wird. Wenn KI Systeme in einem Gebiet erst einmal weniger Fehler machen als Ärzte, werden die Patienten in diesem Gebiet lieber von einem KI System behandelt, begutachtet oder therapiert werden. Wahrscheinlich werden sie sogar einwilligen, das Risiko selbst zu tragen. Und das kann man ja auch nachvollziehen: Wenn ein Arzt zu 70% erfolgreich ist (was in manchen Fällen eine gute Quote ist), aber die KI zu 85%, wofür würdest du dich entscheiden?
-
Tom Rix Beantwortet am 26 Nov 2024:
Das ist eine schwierige Frage. Ich stimme Lucas und Stefanie grundsätzlich zu.
Bisher wird künstliche Intelligenz meist nur als zusätzliches Assistenzsystem eingesetzt, was die Ärztin oder den Arzt unterstützen soll. Die Diagnose wird meines Wissens also immer noch von einem Menschen gestellt unter Zuhilfenahme einer KI. Somit wäre es hauptsächlich die Verantwortung des Arztes oder der Ärztin, wenn sie eine falsche Diagnose stellen, weil sie sich irrtümlicherweise auf die KI verlassen haben.
Allerdings lässt sich Verantwortung nicht nur im rechtlichen Sinne, sondern auch im moralischen oder ethischen Sinne interpretieren. Wenn man diese Ebene betrachtet, haben alle involvierten Personen eine Mitverantwortung für ihren Teilbereich. Die Entwickler müssen sicherstellen, dass die KI genau das tut, was sie tun soll. Dies wird durch Tests streng überprüft. Genau wie medizinische Geräte muss Software auch für die Klinik zugelassen werden. So kommt den Entwickler:innen und den Prüfer:innen auch eine Verantwortung zu.
Wenn man diese Frage gesamtgesellschaftlich betrachtet, dann könnte man vielleicht sogar behaupten, dass den Klinikmanager:innen, Krankenversicherungen oder Gesundheitspolitiker:innen eine große Verantwortung zukommt. Diese entscheiden nämlich letztendlich, ob KI eingesetzt werden soll und womöglich irgendwann die Menschen ersetzen soll, weil es zum Beispiel günstiger ist.
Ehrlicherweise ist die Frage nach Verantwortung aber auch ein first world problem. In vielen Ländern dieser Welt gibt es keine so gute medizinische Versorgung wie in Deutschland. Viele Menschen wären froh, wenn sie überhaupt eine Diagnose bekommen könnten, die auch noch bezahlbar und schnell ist. In Entwicklungsländern hätte KI also das größte Verbesserungspotential und Leute würden auch ein KI System mit fehlern eher akzeptieren, bevor sie gar keine Diagnose bekämen.
Die Frage lässt sich auch auf einer philosophischen Ebene betrachten: „Menschen machen Fehler.“ oder „Irren ist menschlich“, das haben wir als Gesellschaft also ein Stück weit akzeptiert, dass Menschen nicht perfekt sind und auch nicht perfekt sein müssen. Die Ärztin oder der Arzt sind auch mal müde, haben einen schlechten Tag und übersehen Details, die für eine Diagnose relevant sind. Andererseits erwarten wir von Maschinen, dass sie perfekt und fehlerfrei sind. Aber wäre es nicht schon ein Fortschritt, wenn Maschinen weniger Fehler machen als wir Menschen? Sollten wir den Maschinen nicht auch „erlauben“, Fehler zu machen – und sich gegebenenfalls zu korrigieren? Wenn man nachweisen kann, dass eine KI so gut funktioniert, dass sie weniger Fehler als ein Mensch macht, dann könnte man sogar die in meinen Augen berechtigte Frage stellen, ob es verantwortungslos sei, wenn man die KI nicht zur Diagnose einsetzen würde.
Also, wir ihr seht, ist das eine sehr komplexe Frage. Deshalb beschäftigen sich zum Beispiel auch die Ärztekammern mit dieser Frage [1]. Ebenso kann ich die Stellungnahme des Deutschen Ethikrates als Lektüre empfehlen [2].
[1] https://www.aekno.de/aerzte/rheinisches-aerzteblatt/ausgabe/artikel/2024/mai-2024/ki-in-der-medizin-aerztliche-letztverantwortung-bleibt-bestehen
[2] https://www.ethikrat.org/presse/mitteilungen/ethikrat-kuenstliche-intelligenz-darf-menschliche-entfaltung-nicht-vermindern/ -
Matthieu-P. Schapranow Beantwortet am 26 Nov 2024:
@rush29rad: Das ist ein sehr aktuelles Thema und wird derzeit und auch in Zukunft kritisch diskutiert. Das schwierige daran ist, dass wir es gewohnt sind, dass Software fehlerbehaftet ist und in den meisten Fällen haben diese Fehler überschaubare Folgen, z.B. Bluescreen, Neustart des Computers, etc.
Ein Blick in Richtung „autonomes Fahren“ zeigt uns, wie komplex das Thema ist. Haftet z.B. ein namhafter Hersteller von Elektrofahrzeugen bei der Verwendung seiner „Autopilot“-Funktion (Software) im Falle eines Unfalls. Bislang nicht, da es sich um ein Assistenzsystem handelt und der Fahrer stets in der Lage sein muss, selbst aktiv in das Fahrgeschehen einzugreifen.
Der Einsatz von Software im Bereich von Medizinprodukten ist streng z.B. durch die Medical Device Regulation reguliert. Dazu werden Medizinprodukte nach ihrem Risiko für die Patient:innen eingeteilt. Produkte der Klasse IIb, die ein mittleres bis hohes Risiko für die Patient:innen haben können, erfordern in der Regel eine CE-Zertifizierung, d.h. sie benötigen eine spezielle Zulassung; in diesem Fällen ist klar geregelt, dass bei Fehlern der Hersteller haftet. Beispiele sind Hörgeräte, Ultraschall oder Radiologiegeräte, etc.
Was ist mit aber sog. DiGa, also den digitalen Gesundheitsapps, die z.B. bei der Behandlung von chronischen Erkrankungen unterstützt eingesetzt werden können. Diese müssen heute in einem zentralen Register beim Bundesinstitut für Arzneimittel und Medizinprodukte (https://diga.bfarm.de/de) vor ihrem Einsatz gelistet werden und werden regelmäßig hinsichtlich ihrer Wirksamkeit / Erstattunsfähigkeit überprüft. Hierbei handelt es sich aber nicht notwendigerweise um ein Med.-Produkt, da das Risiko für die Nutzenden in aller Regel überschaubar ist. Damit ist die Haftungfrage auch nicht ganz so einfach zu klären.
Was ist mit vermeintlichen Gesundheitsapps, die einen beliebigen AppStore theoretisch aus aller Welt kommen können. Diese unterliegen in Deutschland bisher keiner Regulierung oder Zulassung. Es ist nicht einmal wirklich klar, ob Mediziner:innen bei deren Entwicklung involviert sind oder waren; jeder kann seine App als „Gesundheitsapp“ theoretische zugänglich machen und den Eindruck erwecken, sinnvolle Tipps zu geben. Hier muss man also als Endverbraucher genau hinausschauen und sich selbst informieren.
Die Europäische Kommission hat jüngst den AI Act erlassen, der auch für die Anwendung von KI im med. Bereich zusätzliche Anforderungen stellt. Diese konkrete Umsetzung wird gerade in den Mitgliedsländern eingeführt und wird uns in Zukunft noch einige Zeit beschäftigen.
-
Karsten Weber Beantwortet am 2 Dez 2024:
Derzeit: Das behandelnde Personal. Das wird meines Erachtens auch noch lange so bleiben.
Verwandte Fragen
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
Wo sehen Sie die medizinische KI in 10 oder 20 Jahren?
Wie vermeiden wir, dass KI-Systeme Ungleichheiten im Zugang zu medizinischer Versorgung verschärfen?
Warum ist das Anwenden von Ki im Bereich Medizin fragwürdig?
Kürzlich gestellte Fragen
-
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
-
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
-
Wie stellen Sie sicher, dass die Daten der Patienten geschützt und gleichzeitig für Forschung und Innovation genutzt
-
Wo sehen Sie die medizinische KI in 10 oder 20 Jahren?
-
Wie vermeiden wir, dass KI-Systeme Ungleichheiten im Zugang zu medizinischer Versorgung verschärfen?
Kommentare