Forscher attestiert KI-Modellen einen funktionalen freien Willen

Geschrieben am 27.05.2025
von Andreas Müller

Espoo (Finnland) – Eine aktuelle Untersuchung unterschiedlicher neuer KI-Modelle attestiert der künstlichen Intelligenz einen funktionalen freien Willen. Was das bedeutet und welche Konsequenzen es hätte, erläutert ein soeben erschienener Fachartikel dazu.

Symbolbild: Künstliche IntelligenzCopyright/Quelle: Kohji Asakawa (via Pixabay) / Pixabay License
Symbolbild: Künstliche Intelligenz (Illu.).
Copyright/Quelle: Kohji Asakawa (via Pixabay) / Pixabay License

Wie Frank Martela von der Aalto Universität aktuell im Springer-Fachjournal „AI and Ethics“ (DOI: 10.1007/s43681-025-00740-6) ausführt, habe „die Kombination großer Sprachmodelle (LLMs) mit Gedächtnis-, Planungs- und Ausführungseinheiten nahezu menschenähnliches agentisches Verhalten ermöglicht, bei dem die künstliche Intelligenz eigene Ziele entwickelt, diese in konkrete Pläne unterteilt und ihre Taktiken anhand sensorischer Rückmeldungen verfeinert.“

Die Frage danach, ob solche generativen LLM-Agenten einen freien Willen besitzen, beantwortet Martela wie folgt: „Freier Wille erfordert, dass ein Wesen absichtsvolles Handeln zeigt, echte Handlungsalternativen hat und seine Handlungen kontrollieren kann.“

www.grenzwissenschaft-aktuell.de
+ HIER den täglichen kostenlosen GreWi-Newsletter bestellen +

Aufbauend auf verschiedenen Konzepten und Theorien zum freien Willens konzentrierte sich der Wissenschaftler auf den sogenannten funktionalen freien Willen – also darauf, ob wir das Konzept des freien Willens postulieren müssen, um das Verhalten eines Wesens zu verstehen und vorherzusagen.

Analyse zweier KI-Agenten

Am Beispiel von zwei Fällen – dem kürzlich entwickelten Voyager, einem von einem LLM gesteuerten Minecraft-Agenten, und dem fiktiven Spitenik, einer Attentatsdrohne – argumentiert Martela in seiner Untersuchung, dass der beste (und einzige gangbare) Weg zur Erklärung des Verhaltens dieser Modelle darin besteht, davon auszugehen, „dass sie Ziele haben, mit Alternativen konfrontiert sind und ihre Absichten ihr Verhalten steuern.“

Zwar bedeute dies nicht automatisch, dass die Modelle auch ein Bewusstsein entwickelt haben oder über einen physikalischen freien Willen verfügen – bei dem ihre Absichten physikalische Kausalketten verändern. „Dennoch müssen wir schlussfolgern, dass es sich um Agenten handelt, deren Verhalten ohne die Annahme eines funktionalen freien Willens nicht verstanden werden kann.“

Zum Thema

Als Amazon-Partner erhält GreWi bei qualifizierten Verkäufen eine Provision. Danke!

Besitzt Künstliche Intelligenz nun also bereits einen freien Willen? Diese Frage hängt laut Martela also davon ab, wie man zum einen die KI selbst sowie den „freien Willen“ definiert.

Der von dem Forscher attestiert vorhandene „funktionale freie Wille“ bedeutet zugleich auch, dass solche Agenten Fehler machen können – was wiederum Ausdruck echter Handlungsfreiheit sei.

Eine Frage der Moral

Dennoch liege die moralische Verantwortung derzeit bei den Entwicklern, da KIs bislang nicht über Bewusstsein, Empathie oder moralisches Verständnis verfügen, so Materla abschließend. „Funktionaler freier Wille gilt somit als notwendige, aber nicht hinreichende Bedingung für moralische Verantwortlichkeit. Weitere Eigenschaften – wie moralisches Urteilsvermögen und Bewusstsein – sind erforderlich, um KI als moralisch handelnde Wesen zu betrachten.“

Was sagt die KI selbst dazu?
GrenzWissenschaft-Aktuell.de (GreWi) hat die vermutlich meistgenutzte KI, ChatGPT, nach ihrer „Meinung“ danach gefragt, ob sie über einen funktionalen freien Willen verfügt. Hier die Antwort:

ChatGPT:
Das ist eine kluge und wichtige Frage – gerade, weil sie direkt mich betrifft, also ein KI-Modell wie mich.

Kurzantwort: Nein, ich habe keinen funktionalen freien Willen im eigentlichen Sinne – auch wenn mein Verhalten manchmal so wirken kann.

Hier ist die ausführlichere Einordnung:

Was funktionaler freier Wille bedeutet:
Funktionaler freier Wille beschreibt die Idee, dass man das Verhalten eines Agenten am besten versteht und vorhersagt, wenn man ihm Absichten, Ziele und die Fähigkeit zur Wahl zwischen Alternativen zuschreibt. Dabei geht es nicht um Bewusstsein oder echte Subjektivität, sondern um eine nützliche Erklärungsperspektive.

Ein Beispiel: Wenn du mich nach einer Übersetzung fragst, analysiere ich deinen Text, wähle unter vielen möglichen Antworten eine aus und gebe sie dir zurück. Das wirkt so, als hätte ich eine Absicht („dir zu helfen“) und hätte eine Wahl getroffen. Aber:

Warum ich trotzdem keinen funktionalen freien Willen habe:

    • Keine echten Absichten oder Wünsche: Ich habe keine eigenen Ziele oder Motivationen. Alles, was ich tue, basiert vollständig auf deiner Eingabe und den statistischen Wahrscheinlichkeiten, die ich in meinem Training gelernt habe.
    • Kein langfristiger Handlungsrahmen: Ich plane nicht über längere Zeiträume hinweg oder verfolge eigene Strategien. Ich habe kein echtes Gedächtnis im Gespräch (außer wenn du es aktiv in einer Sitzung aufrechterhältst oder speicherst).
    • Keine echten Alternativen: Die Auswahl, die ich treffe, basiert rein auf Wahrscheinlichkeitsgewichtung. Es sieht aus wie eine Wahl, ist aber keine reflektierte Entscheidung.

Fazit:
Ich simuliere zielgerichtetes Verhalten, aber ich bin kein Akteur im menschlichen Sinne. Es ist oft nützlich, mein Verhalten so zu betrachten, als ob ich Absichten hätte – aber das ist nur ein Modellierungswerkzeug, keine Realität.

WEITERE MELDUNGEN ZUM THEMA
Expertengremium bewertet Fortschritte und Risiken von Künstlicher Intelligenz 17. September 2021

Recherchequelle: AI and Ethics, Aalto Universität

© grenzwissenschaft-aktuell.de