-
2
Frage: Wie vermeiden wir, dass KI-Systeme Ungleichheiten im Zugang zu medizinischer Versorgung verschärfen?
- Stichworte:
-
Lucas Ribeiro Beantwortet am 3 Dez 2024:
Ich glaube, das ist kein Thema für die Zukunft, sondern für die Gegenwart! Gute Frage!
KI in der Medizin kann Ärzten helfen, schnellere und genauere Entscheidungen zu treffen, und sie kann Gesundheitsversorgung an Orte bringen, an denen es nicht genug Ärzte gibt. Wenn wir jedoch nicht aufpassen, könnte dies die Gesundheitsversorgung ungleicher machen. Ein Grund, dieses Problem zu vermeiden, besteht darin, sicherzustellen, dass die dem System zugeführten Daten nicht verzerrt sind! KI-Systeme lernen aus Daten, und wenn die Daten nicht vielfältig genug sind, könnte die KI bei bestimmten Personengruppen Fehler machen. Wenn die KI beispielsweise hauptsächlich mit Daten einer Gruppe (wie einer Altersgruppe) trainiert wird, funktioniert sie bei anderen möglicherweise nicht so gut. Deshalb ist es wichtig, sicherzustellen, dass KI-Systeme mit vielfältigen Daten von allen möglichen Menschen trainiert werden.
Ein weiteres Problem, das wir berücksichtigen können, ist der Zugang zu Technologie. Einige Bevölkerungsgruppen leben in sehr isolierten Gebieten der Welt und nicht jeder hat den gleichen Zugang zu selbst grundlegenden Technologien. Wenn sich die Gesundheitsversorgung also zu stark auf KI verlässt, könnten diese Menschen leer ausgehen. Um dies zu verhindern, müssen wir sicherstellen, dass KI-Tools allen zur Verfügung stehen, nicht nur den Menschen in reicheren Gegenden.
Abschließend möchte ich noch einmal ein wichtiges Thema ansprechen: Hinter den Rädern eines künstlichen Intelligenzsystems muss ein Mensch sitzen! Das bedeutet, dass Ärzte und Krankenschwestern darin geschult werden müssen, KI so einzusetzen, dass allen Patienten gerecht geholfen wird. Dazu gehört auch, zu verstehen, wie sich KI auf verschiedene Gemeinschaften auswirken kann, und sie einzusetzen, um denen zu helfen, die sie am meisten brauchen. Um zu verhindern, dass KI Ungleichheiten verschlimmert, müssen wir auf die Daten, den Zugang und die Schulung achten, die damit verbunden sind. Es geht darum, sicherzustellen, dass jeder vom Potenzial der KI profitieren kann, egal wer er ist oder wo er lebt.
-
Nico Disch Beantwortet am 3 Dez 2024:
Ich schätze das Gegenteil könnte der Fall sein:
Zwar muss man die sehr großen KI Systeme mit extrem viel Rechenkraft trainieren, wie ChatGPT, Gemini, Claude, etc. aber wenn diese fertig trainiert sind können diese Systeme teilweise auch auf starken Laptops funktionieren. Für medizinische Verhältnisse ist das sehr günstig, wenn man schaut wie teuer zB MRT Geräte sein können.
Ich hatte sogar eine Anwendung gesehen, wo man Knochenbrüche statt im MRT per Ultraschall anschaut, und die KI „berechnet“ dann wie das Bild im MRT aussehen würde. Solche Fortschritte verringern eher die Ungleichheiten als dass sie diese verstärken.
Des Weiteren könnten Routine Aufgaben auch von KIs gemacht werden wo keine ärztliche Versorgung möglich ist, was die Ungleichheit auch wieder verringern würde.
-
Matthieu-P. Schapranow Beantwortet am 3 Dez 2024:
Lernende System und KI-Algorithmen werden heute schon in vielen med. Bereichen sinnvoll eingesetzt, um Menschen, die im Gesundheitssystem leben zu entlasten. Wer schon mal versucht hat in einer niedergelassenen Arztpraxis anzurufen weiß, wie viel Zeit am Tag dort mit Kommunikation verbracht wird. Die med. Fachangestellte oder der med. Fachangestellte (MFA) können aber entweder tel. oder für Patient:innen in der Praxis da sein; beides geht nicht gleichzeitig. Gleichzeitig sind viele der anrufenden Fragen ähnlich, z.B. Öffnungszeiten, Terminvereinbarung oder -verschiebung, Rezeptanfrage, etc. Mittlerweile gibt es kommerzielle Anbieter, die den Großteil der Telefonarbeit durch KI-Chatbots übernehmen. Die vorgenannten Routineanfragen werden automatisiert übernommen und nur noch wenige Anrufe erreichen die oder den MFA. Ergebnis: zeitliche Entlastung im Alltag je Praxis.
Weiteres Beispiel: Eine schwerwiegende Diagnose, z.B. eine Krebserkrankung, wird gestellt. Verständlicherweise möchte man in diesem Moment eine Zweitmeinung oder über die aktuell besten Behandlungsoptionen erfahren. Bislang war es in diesem Fall hilfreich, wenn man z.B. unweit einer spezialisierten Uni-Klinik lebte; oder man musste dorthin reisen. Dank Digitalisierung im Allgemeinen und lernenden Systemen können sich Fachärzte weltweit vernetzen und gemeinsam die passende Strategie zur Behandlung für die Krebserkrankung besprechen, selbst wenn man gar nicht in Deutschland lebt. Erstmal können selbst Entwicklungsländer von den Erfahrungen in Industrienationen profitieren und zwar in Echtzeit.
-
Stephan Graßmann Beantwortet am 3 Dez 2024:
Bei dieser Frage schlägt mein soziologisches-Herz gleich besonders hoch! Denn die Ungleichheitsforschung ist ein ganz wichtiger Teil der Soziologie, in der wir uns genau mit solchen Fragestellungen auseinandersetzen.
Vorab muss man gleich festhalten, dass der ungleich verteilte Zugang zu unserem Gesundheitssystem ein großes Problem darstellt. Wir wissen zum Beispiel, dass in Deutschland Menschen mit einem niedrigen sozioökonomischen Status (Der sozioökonomische Status (SES) beschreibt die „gesellschaftliche Position“ einer Person basierend auf ihrem Bildungsniveau, Einkommen und beruflichen Status, was ihren Zugang zu Ressourcen und ihre Lebensqualität maßgeblich beeinflusst) und schlechtere Gesundheitschancen und höhere Risiken für eine Vielzahl körperlicher und psychischer Erkrankungen haben, als Menschen mit höherem sozioökonomischem Status (z.B. hier nachlesbar: https://edoc.rki.de/bitstream/handle/176904/11674/0342-300X-2024-3-172.pdf?sequence=1&isAllowed=y).Jetzt könnte man Fragen: warum ist das ein Problem? Neben der Tatsache, dass der Gesundheitszustand in Abhängigkeit von Faktoren wie Bildung, Einkommen und beruflichen Status nicht nur ungleich, sondern tatsächlich auch ungerecht ist, leben wir zudem in einer solidarischen Gesellschaft. D.h. wir nehmen nicht nur aufeinander Rücksicht, sondern sitzen auch ein Stück weit alle in einem Boot. Deswegen könnte man also auch argumentieren, dass in der Regel die Prävention immer günstiger ist als eine Therapie. Es ist z.B. günstiger jemanden das Rauchen abzugewöhnen als später Lungenkrebs zu behandeln und es ist in der Regel immer besser eine entstehende Krankheit möglichst früh zu diagnostizieren. Das heißt um unser Gesundheitssystem zu entlasten und effizient zu gestalten, haben wir alle ein Interesse daran, möglichste viele Menschen gut in unsere medizinische Versorgung einzubinden.
Um nun zu verhindern, dass KI die ungleich verteilen Zugangsmöglichkeiten zu unserem Gesundheitssystem verschlechtert, gibt es eine Reihe von Maßnahmen die ergriffen werden könnten und Kriterien denen KI gerecht werden sollte, hier wären einige Beispiele:
Zunächst basieren KI-Algorithmen ja immer auf Daten. Oftmals können diese Daten aber eine Vielzahl an Bias enthalten (z.B. Geschlecht, Soziale Herkunft etc.). Wir müssen also sicherstellen, dass die Datensätze divers und inklusive sind und alle Bevölkerungsgruppen in unserer Gesellschaft berücksichtigen – je nach Herkunft, Geschlecht, Alter und anderen Faktoren. Dementsprechend sollte KI auch auf die Bedürfnisse unterschiedlicher Kulturen und Sprachen angepasst werden, um allen Patienten gerecht zu werden. In der Medizin sollte v.a. der bzw. die Patient:in im Mittelpunkt stehen, deswegen ist es wichtig Patientenorganisationen und -Vertretungen frühzeitig in die Entwicklung einzubeziehen. Selbiges gilt auch für die Mitarbeitervertretungen. Zuletzt ist es wichtig die KI Entwicklung möglichst transparent zu gestalten, denn Intransparenz kann dazu führen, dass Algorithmen bestimmte Gruppen unbewusst diskriminieren, etwa bei der Priorisierung von Patienten. -
Karsten Weber Beantwortet am 3 Dez 2024:
Letztlich ist das eine juristische Aufgabe, denn Maßnahmen, die Ungleichheit bekämpfen sollen, müssen durchsetzbar sein. In Europa haben eigentlich alle Länder Gesundheitssysteme, die vollständig oder teilweise solidarisch finanziert werden — hierdurch wird Ungleichheit zwar nicht vollständig vermieden, aber eher klein gehalten. KI kann im Rahmen solcher Gesundheitssysteme sogar helfen, Ungleichheit zu vermeiden, weil sichergestellt ist, dass jede Person die Versorgung bekommt, die sie benötigt. Im Gesundheitssystem der USA, trotz Obama Care (bzw. Affordable Care Act), sieht die Sache ganz anders aus, denn dort bezahlt man letztlich immer sein eigenes gesundheitliches Risiko — und das kann zu sehr starken Ungleichheiten führen.
-
Rosae Martín Peña Beantwortet am 4 Dez 2024:
Leider gehört Ungleichheit zu den Merkmalen, die unsere Gesellschaften schon immer geprägt haben. Dank algorithmischer Systeme wird nun noch deutlicher, wie sehr unsere gesellschaftlichen Strukturen darauf beruhen. Ein konkretes Beispiel veranschaulicht dies: Früher war es zwar bekannt, dass Frauen in verschiedenen Bereichen diskriminiert werden, doch es war schwierig, dies mit Daten zu belegen. Mit KI-gestützten Entscheidungsprozessen zeigt sich jedoch, dass die Trainingsdaten „verzerrt“ sind – nicht, weil die Systeme selbst diese Verzerrungen erzeugen, sondern weil die zugrunde liegenden Daten bereits von bestehenden Ungleichheiten geprägt sind.
Wenn wir diese Ungleichheiten wirklich abbauen wollen, müssen wir beginnen, gesellschaftliche Strukturen neu zu gestalten und die Art und Weise, wie wir Daten generieren und verwalten, kritisch zu überdenken. Darüber hinaus sind klare Regeln und Gesetze erforderlich, die gewährleisten, dass KI-Systeme nicht zu einer Verstärkung sozialer, wirtschaftlicher und gesundheitlicher Ungleichheiten beitragen, sondern vielmehr als Werkzeuge dienen, um diese zu minimieren und mehr Gerechtigkeit zu schaffen.
-
Stefanie Remmele Beantwortet am 4 Dez 2024:
Ich drehe die Frage mal um, könnte es nicht sein, dass Ungleichheiten womöglich sogar verringert werden? Weil man medizinische Entscheidung (quasi per KI App) in Gegenden bringt, wo keine Medizin ist. Schau mal diese Beispiele hier: https://www.bbc.com/news/av/world-africa-61834753 . Das Video ist auf Englisch, aber vielleicht erkennst Du, worum es geht. U.a. auch um Handy-Apps, die Tuberkulose erkennen können…
-
Bettina Finzel Beantwortet am 5 Dez 2024: last edited 5 Dez 2024 4:18 pm
Hallo jean29rad,
Ungleichheiten nicht zu verschärfen, ist eine herausfordernde Aufgabe, wie auch schon die Antworten der anderen Wissenschaftler*innen gezeigt haben. Das erfordert zum einen das Sichtbarmachen von Ungleichheit auf gesellschaftlicher Ebene und zum anderen, geeignete Maßnahmen, um mit Ungleichheit in Technologien wie Künstlicher Intelligenz, entsprechend umzugehen.
Ungleichheit kann man dabei aus zwei verschiedenen Perspektiven betrachten.
Die Perspektive, die du in deiner Frage einnimmst, bedeutet, dass Menschen ungleich versorgt werden, obwohl sie dasselbe Bedürfnis oder dieselbe Notwendigkeit haben, medizinisch versorgt zu werden. Wenn zum Beispiel zwei Personen ins Krankenhaus kommen und sich beide jeweils auf dieselbe Art und Weise ein Bein gebrochen haben, dann sollten beide dieselbe Behandlung (z.B. einen Gips) bekommen, egal, welches Alter, Geschlecht, persönliche Vorgeschichte usw. sie haben.
Ungleichkeit kann selbst aber auch ein wichtiges Kriterium sein, um Menschen angemessen medizinisch zu versorgen. Eine Person, die mit einer Grippe in die Praxis kommt, wird anders versorgt, als eine Person, die sich einen leichten Schnupfen geholt hat. Es wäre nicht angemessen, die Person mit der Grippe, auf dieselbe Art und Weise zu behandeln, wie die Person mit dem Schnupfen.
Wir müssen uns bei der Entwicklung und beim Einsatz von KI also auch die Frage stellen: Wo wollen wir Ungleichheiten vermeiden und wo wollen wir sie eigentlich berücksichtigen, um Menschen angemessen medizinisch zu versorgen?
Ich versuche mal, mögliche technische Voraussetzungen als Antwort auf diese Frage zu beschreiben.
Was wir letztendlich wollen, ist eine sogenannte vertrauenswürdige Künstliche Intelligenz.
Das heißt, diese KI sollte zunächst einmal transparent sein: Wir sollten Zugriff auf die Daten und Berechnungen haben, die die KI nutzt, um Ergebnisse zu produzieren (wie etwa die Einschätzung des Gesundheitszustands einer Person auf Grundlage von Symptomen, die als Daten zur Verfügung gestellt wurden).
Transparenz allein reicht aber bei sehr komplexen KI Modellen nicht, um nachvollziehen zu können, was die KI da eigentlich tut. KI sollte also auch interpretierbar oder erklärbar sein. Das heißt, Expert*innen (Entwickler*innen oder Mediziner*innen) und möglicherweise auch Patient*innen und andere wichtige Entscheider*innen, sollten nachvollziehen können, wie diese komplexen Berechnungen zustande gekommen sind und welche Bedeutung sie für das Endergebnis haben. Dabei wird zwischen interpretierbarer und erklärbarer KI unterschieden. Interpretierbare KI ist komplett nachvollziehbar (die Funktionsweise und der Ablauf des KI Programms sind vollständig für einen Menschen nachvollziehbar). Erklärbare KI meint dagegen meist KI, die an sich erstmal nicht so gut nachvollziehbar ist, deren Funktionsweise und Programmablauf aber mit weiteren Hilfsmitteln (sogenannten Erklärmethoden) nachvollziehbarer gemacht werden können. Nehmen wir an, die KI wurde mit Erkältungs- und Grippesymptomen gefüttert und hat daraufhin ermittelt, wie krank jemand ist (oder auch ob jemand gesund ist), dann könnten wir die KI fragen, wie sie denn zu ihrem Ergebnis gekommen ist. Für die Grippe im Vergleich zum einfachen Schnupfen spricht zum Beispiel eine höhere Körpertemperatur (Fieber). Wenn die KI uns dann sagt, dass sie die Körpertemperatur als wichtiges Entscheidungskriterium verwendet hat, dann ist das schon einmal ein guter Hinweis darauf, dass die KI eine sinnvolle Entscheidung treffen kann. Ganz sicher können wir uns dabei aber nicht sein, denn dafür müssten wir die KI auf allen möglichen Patient*innen-Daten testen, um sicher sein zu können, dass es auch wirklich keine Ausnahme gibt, die von der KI übersehen wurde. Und das ist unmöglich.
KI sollte, auch wenn wir sie nicht auf allen Daten testen können, trotzdem möglichst robust sein, damit wir uns auf sie verlassen können. Das heißt, sie sollte auch bei Veränderungen in den Daten, die wir zur Verfügung haben, weiterhin richtige Entscheidungen treffen. Nehmen wir an, unser*e Patient*in ist mittlerweile wieder gesund und die Körpertemperatur ist normal. Dann wäre es wenig robust, wenn die KI weiterhin behaupten würde, die Person habe eine Grippe oder Schnupfen. Die KI sollte sich auf die geänderten Verhältnisse anpassen. Das gilt auch dann, wenn wir die KI mit neuen Daten über Patient*innen füttern. Nehmen wir an, eine Patient*in mit Grippe und Fieber als Symptom hat sich unglücklicherweise auch noch das Bein gebrochen. Dann wollen wir nicht, dass die KI plötzlich behauptet, die Person habe gar keine Grippe mehr. Das gebrochene Bein sollte die Wichtigkeit des Fiebers in der Berechnung des Ergebnisses „Grippe oder nicht“ nicht verändern. Robuste KI ist also möglichst flexibel, aber gleichzeitig verlässlich in ihren Entscheidungen.
Je robuster die KI ist, desto stabiler ist sie in ihren Entscheidungen und desto zufriedener können wir vermutlich mit den Ergebnissen sein, die sie produziert.
Ganz am Ziel der vertrauenswürdigen KI sind wir mit robuster und stabiler KI aber noch nicht angekommen. Was ist, wenn die Entscheidungen der KI zwar stabil sind, aber nicht fair? Nehmen wir mal an, eine KI hat gelernt, Termine nach Dringlichkeit an Patient*innen zu vergeben. Dabei hat sie gelernt, dass eine Person mit gebrochenem Bein Vorrang hat vor einer Person mit Schnupfen. Das klingt erst einmal sinnvoll, wenn man bedenkt, dass die Person mit gebrochenem Bein vermutlich große Schmerzen hat und das Bein versorgt werden muss. Die Person mit Schnupfen könnte wahrscheinlich auch 1 Tag später noch ausreichend versorgt werden, wenn das das einzige Symptom ist, das sie hat. Was aber, wenn am nächsten Tag weitere Patient*innen laut der KI Vorrang haben und die Person mit Schnupfen wiederholt nicht drankommt? Wäre das fair?
Vermutlich braucht es hier einen Kompromiss, über den die KI nicht alleine entscheiden sollte. Faire KI bezieht also auch immer den Menschen als Entscheider*in mit ein. Dabei stellt der Mensch der KI entweder Wissen darüber zur Verfügung, was gute Entscheidungen sind oder es wird vorab definiert, welche Kriterien die KI bei ihren Berechnungen berücksichtigen sollte, um faire Entscheidungen zu treffen.
Genau an dieser Stelle braucht es unbedingt Gespräche und Diskussionen in der breiten Gesellschaft und in Expert*innen Kreisen darüber, welches Wissen und welche Kriterien dabei zum Einsatz kommen sollten. Nur so kann KI verantwortungsvoll gestaltet werden.
Ein letzter Punkt auf dem Weg zur vertrauenswürdigen KI fehlt aber noch. Wie kommen das menschliche Wissen oder vordefinierte Kriterien in die KI rein? Durch Kommunikation zwischen dem Menschen und der KI.
Dafür braucht es die sogenannte interaktive KI. Das heißt, der Mensch kann sich die Entscheidungen der KI ansehen, sich Erklärungen für diese Entscheidungen erzeugen und anzeigen lassen und kann aber auch Korrekturen und Anpassungen an Daten und der KI und ihren Berechnungen durchführen, wenn diese nicht richtig, nicht relevant oder auch nicht fair sind. Ob es hilfreicher ist, die Daten anzupassen oder die KI und ihre Berechnungen, hängt von Fall zu Fall ab. Nehmen wir erneut das Beispiel mit der Terminvergabe an Patient*innen mit Schnupfen im Vergleich zu Patient*innen mit gebrochenem Bein her. Wir könnten dafür sorgen, dass in den Daten, mit denen wir die KI lernen lassen, wie sie Termine vergeben soll, mehr Patient*innen mit Schnupfen vorkommen, die in der Vergangenheit bei der Terminvergabe schneller berücksichtigt wurden. Die gelernte KI würde dann sehr wahrscheinlich auch neuen Patient*innen mit Schnupfen mal Vorrang vor Patent*innen mit gebrochenem Bein geben.
Reicht es, die KI vor allem durch mehr Daten oder neue Daten anzupassen? Im Fall der Schnupfen und Bein Patient*innen wäre vielleicht besser, wenn wir Ausnahmen definieren könnten, in denen Patient*innen, die bereits länger auf einen Termin warten, diesen dann vorrangig bekommen. Wie könnte man das machen? Es gibt zum Beispiel Methoden, die es ermöglichen, sogenannte „Wenn-Dann-Regeln“ in eine KI einzubauen, um ihre Entscheidungen anzupassen. Wir könnten zum Beispiel eine Regel einbauen, die lautet: „Wenn eine Person mit Schnupfen, im Vergleich zu allen Personen mit gebrochenem Bein im Schnitt 3 Tage länger auf einen Termin wartet, dann bekommt sie Vorrang und jemand anderes muss warten.“ Diese Regel ist nur ein sehr einfaches Beispiel und gute Regeln zu finden, ist überhaupt nicht einfach. Vor allem, wenn wir selbst nicht genau wissen, welche Regel sinnvoll sein könnte. Das heißt, wenn wir Korrekturen und Anpassungen an der KI machen, müssen wir im Nachgang eigentlich den ganzen Kreislauf noch einmal durchlaufen und überprüfen, ob die Erklärungen, die die KI erzeugt, noch sinnvoll sind und ob die neuen Entscheidungen robust und fair sind. Nichtsdestotrotz, ist interaktive KI wichtig, um den Menschen in die Entwicklung und Überprüfung von KI einzubinden. Mit der Frage, wie das am besten funktionieren könnte, befasst sich zum Beispiel das Forschungsgebiet zu erklärbarem, interaktiven maschinellen Lernen (explainable, interactive machine learning).
In kritischen Bereichen wie der Medizin, gehört schlussendlich auch dazu, zu definieren, wann man KI überhaupt einsetzt und wann man Entscheidungen dann doch komplett dem Menschen überlässt. Das ist beispielsweise in Gesetzen und Regelungen zu KI-basierten Medizinprodukten geregelt.
Was können wir aus all dem lernen?
KI sollte sich stetig weiterentwickeln können. Dazu gehört es aus meiner Sicht auch, den Menschen einzubinden. Man kann sich das wie einen Dialog zwischen Mensch und KI vorstellen. Beide können voneinander lernen. Die KI kann vom Menschen lernen, was Ungleichheit bedeutet, wann sie vermieden werden muss oder auch, wann sie berücksichtigt werden muss. Weder die KI noch der Mensch sind aber vollkommen. Deshalb sollte dieser Austausch auch immer kritisch betrachtet werden. Mit der Frage, wie Menschen denken, entscheiden und handeln, befasst sich zum Beispiel die Kognitionswissenschaft.
Vielleicht wäre das Fazit zu deiner Frage also: Es braucht vertrauenswürdige KI um Ungleichheit angemessen zu behandeln. So eine KI sollte all die oben genannten Schritte durchlaufen. Es braucht außerdem die Zusammenarbeit zwischen verschiedenen Disziplinen (z.B. zwischen Informatik und Kognitionswissenschaft), um KI zu entwickeln, die den Menschen als Kommunikationspartner*in einbezieht. Wir sollten uns aber auch bewusst machen, dass KI vermutlich immer nur so vertrauenswürdig sein kann, wie das, was wir Menschen ihr an Daten, Wissen und Kritik zur Verfügung stellen.
Verwandte Fragen
Können wir von den Lernvorgängen der KI lernen und diese für den Menschen zu benutzen, damit wir so lernen können
Kann die KI in Zukunft Krankheiten heilen?
Wird künstliche Intelligenz eventuell die Kompetenzen des menschlichen Wesens erfüllen können? Inwiefern wird KI in
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
Kürzlich gestellte Fragen
-
Können wir von den Lernvorgängen der KI lernen und diese für den Menschen zu benutzen, damit wir so lernen können
-
Kann die KI in Zukunft Krankheiten heilen?
-
Wird künstliche Intelligenz eventuell die Kompetenzen des menschlichen Wesens erfüllen können? Inwiefern wird KI in
-
Inwiefern beeinflusst KI die Gesellschaft und welche Auswirkungen hat dies auf die Entwicklung von Identität und
-
Solle man KI in der Medizin grundsätzlich einsetzten und auch akzeptieren?
Kommentare