London (Großbritannien) – Forschenden ist es gelungen, anhand von Gehirnaktivitätsmustern von Mäusen kurze Filme zu rekonstruieren, die den Tieren zuvor gezeigt wurden.

Copyright/Quelle: Joel Bauer et al., eLife 2026
Inhalt
Wie das Forschungsteam um den Neurowissenschaftler Joel Bauer vom Sainsbury Wellcome Centre des University College London aktuell im Fachjournal „eLife“ (DOI: 10.7554/eLife.105081.3) berichten und eindrucksvoll anhand von kurzen Videosequenzen demonstrieren, konnten sie die Filme ausschließlich auf Grundlage der dabei gemessenen neuronalen Aktivität rekonstruieren.
Die Studie eröffnet Wissenschaftlern und Wissenschaftlerinnen neue Möglichkeiten, um besser zu verstehen, wie das Gehirn visuelle Informationen verarbeitet. Langfristig könnte diese Forschung helfen zu entschlüsseln, wie unterschiedliche Lebewesen ihre Umwelt wahrnehmen – und möglicherweise sogar Einblicke in Prozesse wie Vorstellungskraft oder Träume liefern.
Präzisere Einblicke als mit bisherigen Methoden
Bisherige Ansätze zur Rekonstruktion visueller Eindrücke stammen überwiegend aus Studien mit Menschen, bei denen Probanden mittel sfunktioneller Magnetresonanztomographie (fMRT) Bilder oder Filme betrachten. Anschließend versuchen Forschende, aus den aufgezeichneten Aktivitätsmustern im Gehirn die gesehenen Inhalte zu rekonstruieren (…GreWi berichtete, siehe Links u.).
Das neue Experiment geht nun aber einen Schritt weiter: Statt der relativ groben Messungen eines fMRT nutzten die Wissenschaftler Einzelzell-Aufzeichnungen aus dem visuellen Kortex von Mäusen. Diese Methode erlaubt es, die Aktivität einzelner Nervenzellen sehr präzise zu messen.
„Wir wollten eine bessere Methode entwickeln, um zu verstehen, welche Informationen neuronale Netzwerke tatsächlich repräsentieren“, erklärt Studienleiter Bauer. Herkömmliche Methoden seien oft stark auf bestimmte Testsituationen zugeschnitten und nur begrenzt auf andere Szenarien übertragbar. Das neue Verfahren soll hingegen allgemeiner erfassen können, wie visuelle Informationen im Gehirn dargestellt werden.
Algorithmus rekonstruiert gesehenen Film
Für die Rekonstruktion der Filme griff das Team auf ein neuronales Modell zurück, das ursprünglich im Rahmen der „Sensorium Competition 2023“ entwickelt worden war. Dieses Modell kann vorhersagen, wie einzelne Nervenzellen auf bestimmte visuelle Reize reagieren.
Die Forscher gingen jedoch einen ungewöhnlichen Weg: Anstatt direkt die Reaktion der Neuronen auf das gezeigte Video zu berechnen, bestimmten sie zunächst die Differenz zwischen der tatsächlich gemessenen Aktivität und der Aktivität, die zu erwarten gewesen wäre, wenn die Maus lediglich auf einen leeren Bildschirm geschaut hätte.
Ausgehend von diesem zunächst „leeren Film“ wurde anschließend mithilfe eines Optimierungsverfahrens – dem sogenannten Gradient Descent – schrittweise das Bild angepasst. Pixel für Pixel veränderte der Algorithmus das Video so lange, bis dessen simulierte neuronale Aktivität möglichst genau den gemessenen Daten entsprach.
Auf diese Weise konnten die Wissenschaftler Videosequenzen von etwa zehn Sekunden Länge rekonstruieren. Dabei zeigte sich ein klarer Zusammenhang: Je mehr aufgezeichnete Neuronen in die Analyse einbezogen wurden, desto präziser wurden die rekonstruierten Bilder.
Um zu prüfen, wie gut die Rekonstruktionen tatsächlich waren, verglich das Team die Originalvideos mit den aus Gehirndaten erzeugten Versionen. Dazu nutzten die Forscher eine sogenannte Pixelkorrelation, bei der jedes einzelne Bildpixel zwischen beiden Versionen statistisch verglichen wird.
Die Ergebnisse zeigen, dass die rekonstruierten Videos zeitlich relativ stabil mit den Originalen übereinstimmen. Größere zeitliche Abweichungen traten kaum auf. Dennoch planen die Wissenschaftler, die Methode weiter zu verbessern – insbesondere hinsichtlich Auflösung und Bildausschnitt der rekonstruierten Szenen.
Neue Einblicke in die visuelle Wahrnehmung
Langfristig wollen die Forscher das Verfahren nutzen, um grundlegend zu untersuchen, wie das Gehirn visuelle Eindrücke interpretiert. Denn das, was wir wahrnehmen, ist keineswegs eine perfekte Kopie der Realität. Vielmehr verändert das neuronale Verarbeitungssystem eingehende Informationen. Diese Abweichungen von der tatsächlichen visuellen Szene seien nicht unbedingt Fehler, betonen die Wissenschaftler. Sie könnten vielmehr eine wichtige Funktion erfüllen, indem sie Informationen filtern, verstärken oder ergänzen.
Genau diese Unterschiede zwischen realer visueller Welt und ihrer Repräsentation im Gehirn wollen die Forscher künftig genauer untersuchen. Die neue Methode liefert dafür ein Werkzeug, mit dem sich solche Prozesse erstmals sehr detailliert analysieren lassen.
WEITERE MELDUNGEN ZUM THEMA
Neurowissenschaftler rekonstruieren Rock-Song anhand von Gedankenmustern von Zuhörern 16. August 2023
Künstliche Intelligenz übersetzt Gedanken in Sätze mit Fehlerrate von nur noch 3 Prozent 9. April 2023
Mit Video: KI überträgt visuelle Eindrücke mittels EEG in Bilder 8. November 2019
Künstliche Intelligenz ermöglicht Abbildung von Gedanken 7. März 2018
Erstmals gesprochene Wörter aus Hirnmustern rekonstruiert 16. Juni 2015
Recherchequelle: Sainsbury Wellcome Centre
© grewi.de

