-
0
-
Jens-Bastian Eppler Beantwortet am 2 Dez 2024:
Mit der aktuellen Gesetzgebung ist es m.W. nicht vereinbar. Aber Ethikstandards und Gesetzgebung verändern sich, wenn sich die Meinungen innerhalb von Gesellschaften verändern. Und ich denke, das ist schon auch sinnvoll.
Wenn z.B. ein Black-Box Model irgendwann viel bessere Resultate liefert als herkömmliche Methoden, womit würdest du lieber behandelt/diagnostiziert/… werden? Wenn die normale Therapie zu 50% Erfolg hat und die KI basierte zu 75%, welche hättest du lieber? Selbst wenn die KI eine Black Box ist. Ich denke, genau das müssen wir als Gesellschaft ausdiskutieren und abwägen.
Natürlich sollten wir auch weiterhin daran arbeiten Licht in diese Black Box zu bringen und zu verstehen, wie solche Systeme funktionieren (und ich selbst habe auch Projekte dazu), aber selbst wenn das nicht zu 100% gelingen wird, denke ich, ist die Chance für die Anwendung erfolgreicher Black-Box Modelle hoch.
-
-
Karsten Weber Beantwortet am 2 Dez 2024:
Da es unterschiedliche medizinische Ethikstandards gibt, kann man diese Frage vermutlich nicht endgültig beantworten. Nimmt man einmal den Goldstandard Prinzipienethik von Beauchamp und Childress her, dann sehe ich nicht, wie die Nutzung von KI damit konfligiert:
– Solange die Nutzung von KI für alle Parteien freiwillig ist, wird dem Prinzip der Autonomie Rechnung getragen.
– Wenn die Verwendung von KI zu besseren Outcomes führt, wird das Prinzip des Wohltuns befolgt.
– Wenn gleichzeitig sichergestellt wird, dass kein Schaden an den Patienten ausgeübt wird (bspw. durch Überprüfung der KI-Aussagen), ist das Prinzip des Nichtschadens erfüllt.
– Wenn die Nutzung von KI auch jenen zu qualitativ hochwertiger medizinischer Behandlung verhilft, die bisher dazu keinen Zugang hatten, ist auch das Prinzip der Gerechtigkeit erfüllt.Diese „Wenns“ sind voraussetzungsreich, aber ich denke, dass die entsprechenden Forderungen im Grundsatz erfüllt werden können. Persönlich denke ich, dass das Black-Box-Thema überschätzt wird; die Entscheidungen und Erklärungen meines Arztes verstehe ich in der Regel auch nicht besonders gut.
-
Nico Disch Beantwortet am 2 Dez 2024:
Auch hier wurde bereits gute Punkte erwähnt, und ich wollte noch folgendes hinzufügen, was auf diverse Szenarien hinauslaufen:
– man aktzeptiert dass KI eine Black Box ist, validiert dies aber auf sehr vielen Daten. Und sobald diese besser sind als die Menschen könnte man argumentieren dass es die Entscheidung der Menschen ersetzen könnte.
– Man macht die Black Box zu einem durchsichtigeren Programm. Das könnte man etwa durch XAI machen, oder durch Methoden wie Retrieval Augmented Generation, dass sich die KI auf „reale“ Fakten basiert
– Zuletzt: man kann einfach sagen dass KI niemals alleine die Entscheidung trifft, dass immer Menschen „in the Loop“ sind. So kann man diese Frage recht einfach beantworten, und das ist mMn die einfachste Weise wie man KI in den Alltag bringt. Wahrscheinlich lässt sich das nicht so sehr skalieren, aber es ist mit sehr konservativen Erwartungen und Standards verträglich. -
Rosae Martín Peña Beantwortet am 2 Dez 2024:
Das ist eine sehr gute Frage. Ein Blackbox-Modell könnte durchaus mit ethischen medizinischen Standards vereinbar sein, insbesondere wenn ein sogenannter Bottom-up-Ansatz aus der KI-Ethik angewendet wird. Selbst wenn wir nicht genau wissen, wie diese Blackbox-Modelle zu ihren Ergebnissen gelangen, könnten ihre Entscheidungen – vorausgesetzt, sie erweisen sich langfristig in 99 % der Fälle als korrekt – dazu beitragen, bestehende ethische Standards zu reformieren.
Ethische Standards in der Medizin oder anderen Disziplinen unterliegen schließlich einem kontinuierlichen Wandel, da sich Gesellschaft, Wissenschaft und Technologie gemeinsam weiterentwickeln. Dieser Prozess reflektiert die sich verändernden Werte und Bedürfnisse der Gesellschaft.
-
Lucas Ribeiro Beantwortet am 3 Dez 2024:
Gute Frage! Bei einem „Black-Box“-Modell in der KI können wir nicht leicht sehen oder verstehen, wie es Entscheidungen trifft – es gibt uns nur eine Antwort. In der Medizin kann das schwierig sein, weil Ärzte und Patienten Vertrauen in die Entscheidungsfindung haben und verstehen müssen, insbesondere wenn Leben auf dem Spiel stehen.
Damit KI ethischen Standards in der Medizin gerecht wird, braucht sie einige wichtige und spezifische Eigenschaften: Sie muss SICHER sein, d. h. die KI muss gut funktionieren und darf keine gefährlichen Fehler machen. Sie muss auch FAIR sein, also darf sie Menschen nicht unfair behandeln, etwa indem sie einer Gruppe bessere Ergebnisse liefert als einer anderen. Schließlich muss sie auch ERKLÄRBAR sein, also müssen Ärzte und Patienten verstehen, warum sie etwas empfiehlt, insbesondere wenn sie einen überraschenden Vorschlag macht.
Letztendlich muss ein Black-Box-Modell, um ethisch zu sein, Ärzten helfen, bessere Entscheidungen zu treffen, ohne ihr Urteilsvermögen zu ersetzen, und es muss vorsichtig eingesetzt werden, damit es keinen Schaden anrichtet. Da hinter diesen Entscheidungen medizinische Experten stehen, sollte man sich nicht für ein „Black-Box“-KI-Modell entscheiden, wenn man sich seiner Fähigkeiten nicht absolut sicher ist.
Kürzlich gestellte Fragen
-
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
-
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
-
Wie stellen Sie sicher, dass die Daten der Patienten geschützt und gleichzeitig für Forschung und Innovation genutzt
-
Wo sehen Sie die medizinische KI in 10 oder 20 Jahren?
-
Wie vermeiden wir, dass KI-Systeme Ungleichheiten im Zugang zu medizinischer Versorgung verschärfen?
Kommentare