• Frage: Wird künstliche Intelligenz eventuell die Kompetenzen des menschlichen Wesens erfüllen können? Inwiefern wird KI in Zukunft fähig sein, eigene Interpretationen und subjektive Kommunikation zu äußern?

    Frage gestellt CorleoneN am 5 Dez 2024.
    • Foto: Jens-Bastian Eppler

      Jens-Bastian Eppler Beantwortet am 5 Dez 2024:


      Das ist eine sehr spannende philosophische Frage. Ein großes Problem bei ihrer Beantwortung ist, dass wir zum jetztigen Zeitpunkt keine Möglichkeit haben subjektives Empfinden zu messen. Schon Descartes wusste: „Cogito, ergo sum.“, auf deutsch: „Ich denke, also bin ich“. Für alle anderen als für sich selbst können wir das nicht wissen. Ich kann nicht wissen, wie meine Freunde, meine Familie, … subjektiv empfinden. Ich kann nicht einmal wissen, ob sie es tun. Klar, sie sagen es, aber das kann eine Maschine auch (und ChatGPT tut es auch schon in manchen Fällen).

      Natürlich kannst du mir deine Gefühle mitteilen, sagen dass du traurig bist. Das kann auch ChatGPT. Ist es dasselbe? Ich denke nicht. Aber wie können wir das feststellen?

      Ich gehe schon davon aus, dass KI bestimmte Teile subjektiven Empfindens nachvollziehen können wird (und auch schon kann), was man mit Tests messen kann. Diese Tests basieren typischerweise auf Annahmen wie: „Wenn ich meine Enttäuschung dir gegenüber äußere, dann bist du traurig und kommunizierst das“. Daraus wird dann eine Art subjektives Empfinden hergeleitet. So macht man das zum Beispiel auch mit Tieren und sie scheinen schon subjektives Empfinden zu haben, evtl. nicht so ausgeprägt wie wir Menschen. Hängt natürlich auch davon ab, ob wir von einem Hund ode reiner Ameise sprechen.

      Da wir diese Frage nicht wirklich beantworten können, würde ich eher versuchen zu verstehen WIE subjektiv KI werden kann. Und wie gehen wir dann damit um?

    • Foto: Lucas Ribeiro

      Lucas Ribeiro Beantwortet am 5 Dez 2024:


      Doch, das glaube ich nicht.

      KI könnte sehr gut darin werden, menschliche Kommunikation nachzuahmen, aber sie „versteht“ nicht wirklich so wie Menschen. Sie verarbeitet Daten und Muster, aber es fehlen ihr Emotionen, Erfahrungen und persönliches Urteilsvermögen. Sie kann helfen, komplexe Informationen zu interpretieren, aber sie wird keine subjektiven Meinungen oder Gefühle wie Menschen haben.

      In Zukunft könnte KI emotionale Reaktionen überzeugender simulieren, aber sie wäre immer noch ein Werkzeug – nicht jemand, dem man echte menschliche Empathie oder Kreativität anvertrauen könnte. Sie ist wie ein Papagei – sie kann wiederholen, was sie lernt, weiß aber nicht wirklich, was sie sagt.

    • Foto: Matthieu-P. Schapranow

      Matthieu-P. Schapranow Beantwortet am 6 Dez 2024:


      Die heutigen KI-Algorithmen, die vor allem anbei der Analyse großer Datenmengen eingesetzt werden, sind Arbeitstiere und auf den ersten Blick werden sie das jeder für sich genommen wohl eher bleiben. Künftig sehe ich die Stärke in der Kombination mehrerer Verfahren, die sich ergänzen, vergleichbar mit mehreren Bauteilen, die zusammen etwas größeres erschaffen.

      Schon heute werden lernende Systeme im Call-Center eh gesetzt, um die emotionale Stimmungslage des Anrufenden zu quantifizieren. So ist es z.B. in einigen Ländern üblich, selbst bei starker Wut extrem beherrscht zu wirken; das kann man nur an feinsten Nuancen der gesprochenen Sprache feststellen.

      Ein weiteres Bespiel stellen lernende Systeme dar, die sog. Mikroexpressionen im Gesicht von Menschen Aug Videobildern zu identifizieren; sie können als Indikator für Emotionen wie Ekel, Stress, Freude sein. Zusammen mit weiteren Gesichtspartien kann man schon heute sehr zuverlässig sein gegenüber „vermessen“.

      Genauso wichtig wie das Erkennen von Emotionen beim Gegenüber ist, stellt die Darstellung selbiger auch einen wichtigen Aspekt dar. Zwar würde ein durch KI-beeinflusstet Avatar passende Gesichtsausdrücke zu Emotionen ableiten; sie wären aber eine zu spielende Rolle. Ob wir als Menschen dieSe Rolle akzeptieren hängt aus meiner Sicht vom täglichen Umgang; je häufiger wir eine solche Emotion durch eine KI vorgespielt bekommen, desto eher werden wir diese wohl auch als eine solche akzeptieren.

      Wird die KI jedoch vollständig neue, ihr bisher nicht zugängliche Emotionen allein erfassen? Das erfordert kontinuierliches Lernen und Nachfragen, z.B. „wieso fühlst du dich traurig?“. So könnte ein System sogar seltene, bisher nicht trainierte Situationen im Laufe des Betriebes lernen.

    • Foto: Stefanie Remmele

      Stefanie Remmele Beantwortet am 6 Dez 2024: last edited 6 Dez 2024 8:41 am


      Ich finde auch, das ist eine philosophische Frage. Wann ist ein Mensch ein Mensch?

      Wenn Du einem künstlichen neuronalen Netz das ganze Wissen eines Menschen anlernst und es Erfahrungen machen lässt, die auch ein Mensch macht, bestimmte Belohnung- und Bestrafungsmechanismen dazu einbaust (nennt sich Reinforcmenet-Learning), die bei uns z.B. Hormone übernehmen und es dann „menschlich“ reagiert – erfüllt es dann die Kompetenz eines menschlichen Wesens?

      Ist es der Stoff, in dem wir alles abspeichern,
      die Botenstoffe und die Sensorik, die die Reaktionen auslösen,
      die Art, wie wir „geboren“ werden,
      die uns zum Mensch macht?

      Coole Frage.

    • Foto: Rosae Martín Peña

      Rosae Martín Peña Beantwortet am 6 Dez 2024:


      Ich finde diese Frage faszinierend, denn sie führt mich direkt in das Reich der Science-Fiction. Kennen Sie den Film „Her“? Oder vielleicht einen anderen, den ich sogar noch mehr mag: „Robot & Frank“? Falls Sie sich für die Themen interessieren, die Ihre Frage berührt, kann ich Ihnen diese Filme nur empfehlen.

      Wir Menschen besitzen eine außergewöhnliche Vorstellungskraft und haben die Tendenz, KI-Systeme zu vermenschlichen – genauso wie wir es in der Vergangenheit mit anderen Objekten getan haben. Der Wunsch, Verbindungen herzustellen, sich gehört und willkommen zu fühlen, ist tief in unserer Natur verankert. Aus diesem Grund nutzen viele Menschen ChatGPT nicht nur, weil es unsere Fragen und sogar Matheaufgaben mühelos löst. Es liegt vielmehr an den Antworten: Sie sind oft scharfsinnig, auch wenn sie nicht immer perfekt sind, und vermitteln uns das Gefühl, dass „jemand“ auf der anderen Seite ist.

      Doch dieses „Auf-der-anderen-Seite-Sein“ ist letztlich nur eine Simulation. Der Chat existiert gleichzeitig für Millionen von Menschen, ohne dass wir eine direkte Verbindung haben, ihn sehen oder berühren können. Dies wirft eine spannende Frage auf: Braucht KI einen Körper, damit wir Menschen uns wirklich verstanden fühlen?

      Vielen Dank für diese tiefgründige Frage – sie lädt dazu ein, über grundlegende ontologische Themen nachzudenken, wie etwa: Ist der Mensch ein zutiefst soziales Wesen? Meine Antwort darauf lautet: Ja, ohne Zweifel!

Kommentare