• Frage: Was passiert, wenn die KI ein Fehler macht und der Mensch deswegen stirbt ?

    Frage gestellt game29rad am 26 Nov 2024. Diese Frage wurde auch von auks29rad gestellt.
    • Foto: Lucas Ribeiro

      Lucas Ribeiro Beantwortet am 26 Nov 2024: last edited 25 Nov 2024 11:56 pm


      Hallo! Vielen Dank für diese super relevante Frage!

      Ich glaube, wir sind noch nicht bereit für den vollständig autonomen Einsatz von KI-basierten Lösungen in der Medizin und es könnte einige (viele!) Jahre dauern, bis dies genehmigt wird. Ich denke jedoch, dass wir diese Protokolle für maschinelles Lernen verwenden können, um echte Ärzte in ihrer Routine zu unterstützen und ihnen eine bessere Gesundheitsversorgung zu bieten, um komplexe Krankheiten zu diagnostizieren oder zu behandeln.

      Aber wenn wir uns eine Welt (jetzt oder in der Zukunft) vorstellen, in der KI-Tools zu Verletzungen oder sogar zum Tod eines Menschen führen können, würde ich einige wichtige Punkte berücksichtigen:
      – Die Vorteile des Einsatzes von KI in der Medizin sollten immer die potenziellen Risiken überwiegen (wie bei jeder anderen Behandlung, oder?), um sicherzustellen, dass die Verwendung sicher ist;
      – Bevor wir diese KI-Systeme in Betrieb nehmen, brauchen wir klare Gesetze, um die Verantwortlichkeiten und Rechte jedes Sektors festzulegen: der Krankenhäuser, des KI-Herstellers und des Patienten;
      – Unternehmen, die KI-Lösungen anbieten, sollten transparent über ihre Systeme sein und ihre Programmierung kontinuierlich überwachen, um sie zu korrigieren und zu verbessern.

      Letztendlich muss die Medizin von ausgebildeten Ärzten durchgeführt werden. Wenn sich ein Arzt blind auf eine KI-Empfehlung verlässt, die offensichtlich fehlerhaft ist, kann er dafür zur Verantwortung gezogen werden, dass er nicht sein professionelles Urteilsvermögen an den Tag gelegt hat. Fairerweise muss man sagen, dass ein Entwickler auch für den Einsatz eines fehlerhaften Algorithmus haftbar gemacht werden kann, und ein Krankenhaus kann dafür verantwortlich gemacht werden, dass es sein Personal nicht im richtigen Umgang mit der KI geschult hat.

      Computer können sich (noch) nicht selbst bauen. Dahinter steckt immer ein Mensch, der für seine Aktivitäten die Anerkennung – und die Schuld – verdient!

    • Foto: Stefanie Remmele

      Stefanie Remmele Beantwortet am 26 Nov 2024:


      Tatsächlich sind schon viele KI-unterstützte (v.a. maschinell lernende) Produkte im Einsatz. Die meisten in der Radiologie (Röntgen, MRT, CT und co.). Auf Seite 13 in diesem pdf https://www.medrxiv.org/content/10.1101/2022.12.07.22283216v3.full.pdf findet Ihr eine schöne Graphik zu Zulassungszahlen und Einsatzgebieten. Für alle Medizinprodukte (und andere) gilt, wenn der Fehler am Produkt liegt, haftet der Hersteller. KI-unterstützte MPs gelten aber generell als risikoreicher und werden daher normalerweise strenger geprüft.

    • Foto: Matthieu-P. Schapranow

      Matthieu-P. Schapranow Beantwortet am 26 Nov 2024:


      @game29rad, @auks29rad: Dies ist eine sehr emotionale Frage. Immer wenn ein Lebewesen stirbt, stellt sich die Frage nach Fehlern oder der Haftbarkeit, sowohl bei Angehörigen als auch bei behandelnden Ärzt:innen. Die Antwort ist heute recht klar geregelt, denn Menschen behandeln Patient:innen und nicht KI-Systeme, so sind auch die Menschen für die getroffenen Entscheidungen verantwortlich.

      Heutzutage können Mediziner:innen bereits auf eine Auswahl lernender, KI-gestützter Entscheidungsunterstützungssysteme zurückgreifen; einige Beispiel wurden bereits in den anderen Antworten genannt. Dabei steht der Aspekt Unterstützung im Vordergrund, das heißt für Mediziner:innen bieten diese Systeme vergleichbar mit neuen diagnostischen Verfahren zusätzliche Informationen bereit. All diese Facetten werden durch die behandelnden Ärzt:innen zu einem Gesamtbild zusammengesetzt. Dabei bleibt die Ärztin oder der Arzt weiterhin die Person, die je Patientin oder Patient individuell abwägt und die letztendlich die Behandlungsentscheidung trifft. Dabei kann die getroffene Entscheidung durchaus von dem Vorschlag eines Algorithmus abweichen, z.B. weil es individuelle Wünsche der Patient:innen gibt oder weil nicht alle Aspekte im Behandlungsverlauf rein durch quantitativ messbare Aspekte für einen Algorithmus zu Verfügung stehen.

      In naher Zukunft kann es jedoch durchaus spezielle Situationen geben, wo keine Ärzt:in in angemessener Zeit antworten kann, z.B. auf einer Weltraummission auf einer mehrmonatigen Reise zum Mars. Da kann es durchaus nötig sein, dass Nicht-Mediziner:innen mit Hilfe von Informationen aus Algorithmen Entscheidungen treffen müssen. Wie sich Hollywood das vorstellt, kann man im Film „Passengers“ oder für die älteren Leser in den „Star Trek“-Folgen sehen; das ist bislang jedoch noch Science Fiction.

    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 26 Nov 2024:


      Ich würde mit einer Gegenfrage antworten: Was passiert, wenn ein Arzt einen Fehler macht und deswegen ein Mensch stirbt? Und nehmen wir einmal an, dass es kein krasser Fehler war, sondern einer, der passiert, weil der Arzt auch ein Mensch ist. Dann ist das heutzutage im Normalfall durch eine Versicherung abgedeckt.

      Die Versicherung stellt Statistiken auf und weiß genau, was bei welcher Behandlung, das Riskio für den Patienten ist zu sterben. Sobald dieses Risiko bei einer Behandlung durch KI geringer ist als bei Behandlung durch einen Arzt, wird sich die Versicherung überlegen, dass das ja besser ist für den Patienten und dieses Risiko auch übernehmen.

      Noch sind meines Wissens keine KIs zugelassen, die so viel Verantwortung haben, aber ich gehe stark davon aus, dass dies bald passieren wird. Sobald die Vorteile überwiegen.

    • Foto: Alexej Knaus

      Alexej Knaus Beantwortet am 26 Nov 2024:


      **Antwort 5:**

      Ich schließe mich den Vorrednern in vielen Punkten an, möchte jedoch einen zusätzlichen Schwerpunkt setzen: die Rolle von **Explainability** (Erklärbarkeit) und **transparenter KI** in sicherheitskritischen Anwendungen wie der Medizin.

      Wer sich was dazu anhören möchte findet hier was auf die Ohren:
      – Intransparente KI – In den Fängen der Algorithmen: https://www.deutschlandfunk.de/ki-wie-bei-kafka-in-den-faengen-der-algorithmen-dlf-53c6790a-100.html
      – KI in der modernen Medizin – Arzt oder Automat (Hörsaal – Deutschlandfunk Nova): https://www.ardaudiothek.de/episode/hoersaal-deutschlandfunk-nova/ki-in-der-modernen-medizin-arzt-oder-automat/deutschlandfunk-nova/13770917/

      Die sogenannte „eXplainable Artificial Intelligence“ (XAI) ist ein Forschungsgebiet, das sich darauf konzentriert, maschinelle Lernmodelle verständlicher und interpretierbarer zu machen. Ziel ist es, dass Expert:innen – beispielsweise Ärzt:innen – die Entscheidungen und Vorschläge einer KI nicht nur nachvollziehen können, sondern auch in der Lage sind, diese kritisch zu hinterfragen und gegebenenfalls zu korrigieren.

      Eine der zentralen Herausforderungen hierbei ist, dass viele der leistungsstärksten KI-Modelle, insbesondere Deep-Learning-Modelle, wie „Black Boxes“ agieren: Sie liefern Ergebnisse, ohne dass ihre Entscheidungswege leicht nachvollziehbar sind. Das kann in sicherheitskritischen Bereichen wie der Medizin problematisch sein, da es schwierig wird, potenzielle Fehlerquellen zu identifizieren. Forschungsergebnisse zeigen, dass transparente KI-Modelle Ärzt:innen nicht nur besser unterstützen, sondern auch das Vertrauen in die Technologie stärken können (Rudin, 2019).

      **Warum ist Erklärbarkeit entscheidend?**
      1. **Bessere Entscheidungsfindung:** Ärzt:innen können mithilfe erklärbarer KI verstehen, warum eine bestimmte Diagnose oder Therapie empfohlen wurde, und diese Empfehlung in ihren klinischen Kontext einordnen. Studien zeigen, dass dies die Qualität von Entscheidungen deutlich verbessern kann (Doshi-Velez & Kim, 2017).
      2. **Verantwortung und Haftung:** Erklärbarkeit hilft, die Verantwortlichkeiten klar zu trennen. Wenn ein Arzt eine KI-Empfehlung ablehnt, weil er Schwächen oder Unsicherheiten im Vorschlag erkennt, zeigt dies die Stärke eines Mensch-Maschine-Teams. Gleichzeitig minimiert es das Risiko, dass Entscheidungen „blind“ der KI überlassen werden.
      3. **Schulung und Training:** Erklärbare Systeme können auch genutzt werden, um Ärzt:innen im Umgang mit komplexen Technologien besser zu schulen. Wenn Ärzt:innen die Limitierungen und Schwächen eines Modells verstehen, können sie informierte Entscheidungen treffen, selbst wenn die KI fehlerhaft arbeitet.

      **Die Zukunft der Medizin mit XAI**
      In der Praxis sehen wir bereits Ansätze zur Integration von XAI in die Medizin. So gibt es beispielsweise Algorithmen, die neben ihrer Diagnose auch die wichtigsten Parameter oder Merkmale nennen, die zu dieser Entscheidung geführt haben (z. B. „Dieses Ergebnis basiert auf der auffälligen Gewebestruktur im Bereich XY“). Dies ermöglicht es Ärzt:innen, die Diagnosen zu überprüfen, bevor sie Entscheidungen treffen.

      Ein Beispiel aus der Praxis sind KI-Modelle, die in der Radiologie eingesetzt werden, um Tumore in MRT- oder CT-Bildern zu erkennen. Solche Modelle sind zunehmend mit Heatmaps ausgestattet, die visuell darstellen, welche Bildbereiche für die Entscheidung des Modells relevant waren. Das erhöht nicht nur die Transparenz, sondern auch die Sicherheit, da die Ergebnisse nachvollziehbar sind (Selvaraju et al., 2017).

      **Fazit**
      Die Forschung und Entwicklung von KI im medizinischen Bereich muss sich nicht nur auf die Genauigkeit und Leistung der Systeme konzentrieren, sondern auch auf deren Erklärbarkeit. Nur so kann sichergestellt werden, dass Ärzt:innen und andere Fachkräfte die Technologie als sinnvolle Unterstützung betrachten und nicht als unverständliches Werkzeug.

      **Quellen:**
      – Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. *Nature Machine Intelligence, 1*(5), 206–215.
      – Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. *arXiv preprint arXiv:1702.08608.*
      – Selvaraju, R. R., et al. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. *Proceedings of the IEEE International Conference on Computer Vision (ICCV)*.

      PS.: Diese Antwort wurde mit Hilfe von KI verfasst ;D

    • Foto: Nico Disch

      Nico Disch Beantwortet am 27 Nov 2024:


      Das ist definitiv eine sehr interessante Frage, die natürlich viel mit moralischen und ethischen Überlegungen zu tun hat und auch als KI-Forscher nicht einfach zu beantworten ist.

      Wie bereits erwähnt, kann man KI so gestalten, dass sie verständlicher wird. Dies hilft dabei, Entscheidungen und Fehler besser nachzuvollziehen.

      Die Frage, die sich stellt, ist: Wie „gut“ muss eine KI sein?

      Muss sie mindestens genauso gut sein wie ein Mensch?
      Sollte sie sogar besser sein?
      Oder darf sie sich überhaupt keinen Fehler erlauben?

      Insbesondere in der Medizin, wo es um Leben und Tod geht, ist diese Frage entscheidend. In vielen Fällen, in denen KI eingesetzt wird, hat der Mensch noch die Übersicht und trägt weiterhin Verantwortung. Man könnte argumentieren, dass der Mensch in solchen Fällen mitverantwortlich ist. Doch diese Antwort ist oft nicht zufriedenstellend, da sie die Verantwortung teilweise von den Entwicklern der KI abwälzt.

      Als „Entwickler von KI“ tragen wir eine große Verantwortung, solche Fehler so gut wie möglich zu verhindern und die Systeme so sicher wie möglich zu gestalten. Aber genauso wichtig ist es, klare Rahmenbedingungen für den Einsatz von KI in der Medizin zu schaffen, damit man durch KI auch viele Leben retten kann.

      PS; auch diese Antwort wurde durch KI verbessert 😉

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 2 Dez 2024:


      Dann hat das behandelnde Person (mindestens) ein juristisches Problem.

Kommentare