-
0
-
Stefanie Remmele Beantwortet am 2 Dez 2024:
So gar nicht anwendbar? Nein, vermutlich nicht. Ich denke, irgendeine unterstützende Funktion ist mindestens immer denkbar.
Selbst in so untechnischen Fragestellungen wie z.B. der Psychotherapie könnte man sich vorstellen, dass zumindest Daten sich leichter auswerten lassen oder auch Mimik oder Gestik sich unterstützend interpretieren ließen.
-
-
Lucas Ribeiro Beantwortet am 3 Dez 2024:
Ja, das glaube ich!
KI ist in vielen Bereichen der Medizin unglaublich nützlich, aber es gibt einige Situationen, in denen sie möglicherweise nicht das beste Werkzeug ist. Beispielsweise ist KI nicht gut darin, Emotionen zu verstehen oder die persönliche Betreuung zu leisten, die Menschen leisten können. In Bereichen wie Beratung oder Sterbebegleitung sind die menschliche Verbindung, Empathie und das Verständnis wirklich wichtig, und das ist etwas, das KI nicht ersetzen kann.
Außerdem kann KI Ärzten zwar helfen, durch die Analyse von Daten bessere Entscheidungen zu treffen, aber sie kann nicht all die komplexen Entscheidungen treffen, die ein Arzt mit jahrelanger Erfahrung treffen kann. Manche Krankheiten oder Gesundheitsprobleme erfordern möglicherweise kreatives Denken oder sehr spezifisches Wissen, über das KI noch nicht verfügt. Obwohl KI also ein leistungsstarkes Werkzeug ist, gibt es immer noch viele Bereiche der Medizin, in denen menschliches Fachwissen unverzichtbar ist.
Manchmal braucht ein Patient mehr als Medizin: jemanden, der ihm in einem schwierigen Moment die Tränen trocknet und ihm die Wärme einer Umarmung bietet.
Künstliche Intelligenz wird das niemals ersetzen.
-
Jens-Bastian Eppler Beantwortet am 3 Dez 2024: last edited 3 Dez 2024 7:38 am
Ich denke, es gibt momentan einen sehr großen Bereich, in dem ich mir KI nicht vorstellen kann. Und das ist tatsächlich das Ausführen von vielen Therapien oder Pflege. KI scheit sehr gut darin zu sein Menschen zu imitieren (teilweise sogar zu übertreffen), aber insbesondere in körperlosen Bereichen. Soblad man sie in einen Körper integriert, z.B. den eines Roboters, gibt es riesige Probleme. Auch gerade bei Dingen, die uns leicht fallen. Ein volles Glas Wasser zu greifen und ohne etwas zu verschütten von einem Raum in den anderen zu bringen, ist im Moment noch unmöglich für KIs. Auch in diesem Bereich wird es Fortschritte geben, aber ich denke nicht, dass eine KI in einem Notfalleinsatz auf der Straße gebrochene Beine schienen können wird. Oder eine Infusion legen. Oder eine Wiederbelebung durchführen kann. Vielleicht irgendwann einmal in einem gut beleuchteten Zimmer mit komplett ebenem Boden, aber sehr wahrscheinlich nicht bei Notfällen im Einsatz…
-
Matthieu-P. Schapranow Beantwortet am 3 Dez 2024:
@hear29rad: Vielen Dank für die spannende Frage, die wie Du Dir bestimmt vorstellen kannst, gar nicht so einfach zu beantworten ist. Generell sollte man trennen zwischen technischen und ethischen Barrieren. Vieles das technisch vielleicht schon in Forschung oder als Prototyp funktioniert, ist ethisch möglicherweise nicht ganz so einfach zu beantworten.
Lass uns folgendes hypothetisches Gedankenexperiment machen. Forscher entwickeln einen KI-basierten Test, der Anhang einer kleinen Blutprobe erkennen kann, ob es im Körper entartete Zellen gibt, z.B. von einer Tumorerkrankung. Der Test war ist recht zuverlässig, aber nicht perfekt. Gleichzeitig ist klar, dass der Tumor möglicherweise so winzig ist, dass man ihn auf klassischen bildgebenden Verfahren nicht identifizieren kann; also auch nicht operativ entfernen kann. Nun ist die Frage: sollte man einen solchen Test allen Menschen in der Bevölkerung zugänglich machen, wohlwissend, dass wir viele Menschen mit einem möglichen Testergebnis haben werden, bei denen die weiteren Untersuchungen möglicherweise keinen klaren Befund ergeben. Man müsste also gewissermaßen mit dem Wissen weiterleben, da ist etwas in meinem Körper, das möglicherweise schwerwiegende Folgen für meine Gesundheit haben könnte, aber behandeln kann man es derzeit nicht. Gleichzeitig würde die extreme Nachfrage nach einem solchen Test dazu führen, dass zahlreiche teure Nachuntersuchungen erfolgen müssen, die es vor dem Test einfach nicht gab.
Frag Dich selbst, würdest Du gern ein solches Testergebnis wissen wollen? Selbst wenn man möglicherweise aktuell keine passende Behandlung nach einem positiven Testergebnis initiierten könnte? Gleichzeitig könnte es auch sein, dass sich der Test irrt und Menschen zwar viele kosten- und zeitintensive Untersuchungen über sich ergehen lassen haben, obwohl gar nichts verändert ist.
Ich hoffe, dass dieses Gedankenexperiment zeigt, wie wichtig die Schwerpunkte Medizinethik bzw. KI-Ethik in diesem Zusammenhang sind und warum diese auch künftiger weiter gefördert werden sollten.
-
Nico Disch Beantwortet am 3 Dez 2024:
Da es schon viele gute Antworten gibt:
Ich bin mir nicht sicher ob man das kategorisch beantworten kann, definitiv technischer Natur. Von den Gesetzen und Normen gibt es noch einige Gebiete wo KI nicht nicht angewandt werden kann. Technische Grenzen kann ich nicht ausschließen, regulatorisch schon.
KI ist besser darin viele Daten zu bearbeiten und Muster darin zu erkennen. Menschen sind viel besser darin sich in Situationen zurechtzufinden wo noch nicht konfrontiert waren, und Menschenverstand brauchen um die Situation zu beheben.
-
Stephan Graßmann Beantwortet am 3 Dez 2024:
Die Fragen die auf die Zukunft abstellen sind natürlich immer besonders interessant, gleichzeitig aber besonders schwer zu beantworten
Man könnte die Frage eigentlich in zwei unterschiedliche Fragen aufteilen: Einmal die Frage danach ob es technisch überhaupt möglich ist dann die Frage wo der Einsatz von KI sinnvoll ist. Die erste Teilfrage würde ich hier ein bisschen ausklammern, da es immer schwer ist vorherzusagen was in der Zukunft einmal möglich sein wird. Dennoch muss man festhalten, dass aktuelle KI Technologie durchaus limitiert ist und ganz speziell für ihren jeweiligen Anwendungszweck trainiert werden muss. Ich kann jetzt zum Beispiel nicht hergehen und CT-Scans bei Chat GPT hochladen und diese Scans nach Metastasen durchsuchen lassen.
Dann zur zweiten Teilfrage: Es gibt auf jeden Fall Bereiche in denen der Einsatz von KI mehr Sinn macht und es gibt sicher auch Bereiche in denen ein Einsatz weniger sinnvoll erscheint. Generell könnte man sagen, dass überall da wo es viele menschliche Fähigkeiten bedarf, KI wohl einen schwierigen Stand haben dürfte. Das heißt wenn es um menschliche Interaktion, emotionale Nähe, menschliche Intuition, Empathie usw. geht.
Beispiele dafür wären z.B. die Psychotherapie. Kern der Psychotherapie ist die menschliche Beziehung: Empathie, Verständnis, und das Schaffen eines sicheren Raums. Auch wenn KI in der Lage ist, Sprachmuster zu analysieren oder Stimmungen zu erkennen, kann sie jedoch keine echte emotionale Verbindung herstellen.
Ähnliches gilt auch für die Palliativmedizin, hier steht die persönliche und emotionale Unterstützung von sterbenden Menschen und ihren Angehörigen im Vordergrund. Diese Arbeit erfordert menschliche Wärme, Intuition und die Fähigkeit, auf individuelle Bedürfnisse einzugehen – Fähigkeiten, die KI nicht besitzt und eine Situation in der wir auch lieber Menschen als Bezugspersonen haben und keine Maschinen.
Letztes Beispiel hier wäre z.B. auch der Umgang mit kleinen Kindern. Mit Kindern kommunizieren wir anders als mit Erwachsenen, die Kommunikation ist oft nonverbal, verspielt und intuitiv. KI kann hier nur schwer interagieren, da Kinder oft nicht rational reagieren und ihre Bedürfnisse nonverbal ausdrücken. -
Karsten Weber Beantwortet am 3 Dez 2024:
Kann ich mir nicht vorstellen. Es mag Bereiche geben, wo der erzielbare Nutzen nicht groß ist oder Bereiche, in denen wir aus gesellschaftlichen Überlegungen heraus KI nicht einsetzen wollen. Das sind aber keine prinzipiellen Gründe.
-
Rosae Martín Peña Beantwortet am 4 Dez 2024:
Bei allem, was eine vollständige Automatisierung betrifft – insbesondere, wenn ein System im Gesundheitswesen eigenständig Entscheidungen treffen soll –, wäre ich sehr vorsichtig mit dem Einsatz von KI. Wie bereits viele Wissenschaftler betont haben, können KI-Systeme keine Emotionen verstehen. Wenn jemand Schmerzen hat, „weiß“ ein KI-System nicht, wie diese zu interpretieren sind.
KI ist keine menschliche Intelligenz; sie unterscheidet sich in grundlegender Weise von unserer. Zumindest heute können KI-Systeme zahlreiche Aufgaben unterstützen und das Gesundheitspersonal entlasten. Doch in sensiblen Bereichen wie dem Trösten oder dem Ausdruck echten Mitgefühls bleiben sie den Fähigkeiten eines Menschen weit unterlegen. Diese kritischen Aspekte der menschlichen Interaktion sind durch KI nicht ersetzbar.
Verwandte Fragen
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
Wo sehen Sie die medizinische KI in 10 oder 20 Jahren?
Wie vermeiden wir, dass KI-Systeme Ungleichheiten im Zugang zu medizinischer Versorgung verschärfen?
Warum ist das Anwenden von Ki im Bereich Medizin fragwürdig?
Kürzlich gestellte Fragen
-
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
-
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
-
Wie stellen Sie sicher, dass die Daten der Patienten geschützt und gleichzeitig für Forschung und Innovation genutzt
-
Wo sehen Sie die medizinische KI in 10 oder 20 Jahren?
-
Wie vermeiden wir, dass KI-Systeme Ungleichheiten im Zugang zu medizinischer Versorgung verschärfen?
Kommentare