Prof. Katrin Amunts hat das EU-Flagship „Human Brain Project“ geleitet. Es hat die Grundlage für einen neuen Atlas des Gehirns und personalisierte Gehirnmodelle gelegt, die heute über EBRAINS verfügbar sind. Mit solchen Hirnmodellen lassen sich medizinische Behandlungen individuell planen. Ein Interview.
Die Gehirnforschung vollzieht gerade einen Perspektivwechsel: weg von der Beschreibung eines Durchschnittsgehirns hin zu individuellen Variationen. Wann hat dieser Trend begonnen?
Katrin Amunts ist Direktorin des Instituts für Neurowissenschaften und Medizin (INM-1) sowie Direktorin des Cécile und Oskar Vogt-Instituts für Hirnforschung an der Heinrich-Heine-Universität Düsseldorf. Copyright: — Mareen Fischinger/Forschungszentrum Jülich
Katrin Amunts: Die Forschung ist sich der individuellen Unterschiede schon seit mehr als hundert Jahren bewusst und hat sie auch beschrieben: Variationen bei der Dicke der Hirnrinde, ihrer Faltung oder der Anordnung der Zellen. Man hat auch vermutet, dass diese Unterschiede für die Hirnfunktion oder Erkrankungen bedeutsam sind. Allerdings konnte man erst ab Ende der 1980er Jahre mithilfe der funktionellen Bildgebung dem Gehirn sozusagen „bei der Arbeit“ zusehen. Daraus ergaben sich eher grundsätzliche Fragen, etwa: Welche Gehirnregion steht mit einer bestimmten Funktion in Verbindung? Also: Wo wird etwas aktiviert, wenn ich den Finger bewege, und passiert das bei allen Menschen an der gleichen Stelle?
Nun unterscheiden sich alle Gehirne etwas voneinander in ihrem Bau und man hat solche natürliche Variabilität damals eher als ein störendes Rauschen angesehen. In der Medizin jedoch geht es um den individuellen Patienten, und so wurde das Konzept einer personalisierten Medizin etabliert. Das ist eine wichtige Entwicklung, zu der wir in den Neurowissenschaften beitragen. Das geschieht etwa, indem wir personalisierte Gehirnmodelle entwickeln.
Was ist ein Gehirnmodell überhaupt?
Es gibt verschiedene Arten von Gehirnmodellen – anatomische, biophysikalische, datengetriebene Modelle und andere. Einige Gehirnmodelle beschreiben die Vorgänge im Gehirn mathematisch, wie „The Virtual Brain“, das virtuelle Gehirn. Es wurde im Human Brain Project maßgeblich von Viktor Jirsa und seinem Team aus Marseille entwickelt und ermöglicht, bestimmte Prozesse im Gehirn zu simulieren. Es erlaubt, Parameter zu ändern; das virtuelle Gehirn lässt sich also personalisieren. Dazu fließen Befunde ein, etwa MRT-Bilder des Patienten, dessen elektrische Gehirnaktivitäten und Informationen über die Verbindungsstruktur. Das wird ergänzt durch Daten aus Hirnatlanten, die grundlegende Parameter wie Zelldichten liefern. Am Ende haben wir ein personalisiertes Modell mit spezifischen Patientendaten. Das zu erreichen, war ein großer Fortschritt.
Wofür kann solch ein personalisiertes Gehirnmodell benutzt werden?
In Frankreich wird gerade eine klinische Studie zu Epilepsie abgeschlossen. Die Betroffenen haben Krampfanfälle, die von bestimmten individuellen Gehirnregionen ausgehen. Diese Bereiche können operativ entfernt werden. Dabei ist es wichtig, möglichst genau zu bestimmen, wo sie liegen. Aus den Daten über die jeweilige elektrische Gehirnaktivität und -struktur haben die Kolleg:innen für jeden Patienten ein personalisiertes Modell entwickelt. Es ermöglicht, individuell zu berechnen, an welcher Stelle wie viel Gewebe entnommen werden muss, um die Krampfanfälle zu stoppen, ohne Schäden zu verursachen. Die Kolleg:innen arbeiten daran, solche Modelle aussagekräftiger, individueller und passgenauer zu machen und auf andere Bereiche zu übertragen.
Sie haben die Hirnatlanten erwähnt, die in die personalisierten Modelle einfließen. Welche Informationen liefern die Atlanten?
Unser Hirnatlas beschreibt, wie groß die Wahrscheinlichkeit ist, ein bestimmtes Areal an einer vorgegebenen Stelle im Gehirn zu finden. Er berücksichtigt die Unterschiede in der Anatomie, das heißt die Variabilität des Gehirns. Wir haben Anfang der 1990er Jahre hier am Institut und an der Universität Düsseldorf begonnen, diesen Atlas zu entwickeln. Dazu wurden hauchdünne Schnitte von Gehirnen von Körperspendern angefertigt und gefärbt, um die Zellkörper unter dem Mikroskop sichtbar zu machen. Anschließend haben wir die Schnitte digitalisiert, daraus am Rechner jedes Hirn in 3D rekonstruiert und einzelne Hirnareale mithilfe statistischer Verfahren kartiert. Aus den übereinandergelegten individuellen Karten entstehen dann Wahrscheinlichkeitskarten – die Grundlage für den Julich Brain Atlas, der zum ersten Mal Variabilität so räumlich festmacht. Er ist etwas, was es in dieser Auflösung, Detailtreue und auch in diesem Umfang nur in Jülich gibt. Gleichzeitig ist er Kernstück der digitalen Forschungsinfrastruktur EBRAINS – ein Ergebnis des Human Brain Project.
Wir haben stets Wert darauf gelegt, dass Werkzeuge und Daten einfach zugänglich sind und im Sinne von FAIR Data genutzt werden können.
Wie kann die weltweite Community auf diese Daten und Werkzeuge zugreifen?
Das ist über EBRAINS möglich. Wissenschaftler:innen weltweit können über die Plattform auf Daten und digitale Werkzeuge für die Neurowissenschaften zugreifen. Sie können den Atlas nutzen, um ihre eigenen Fragestellungen zu lösen – ob es dabei um Grundlagenforschung, Kognitionsforschung oder medizinische Fragen geht. Wir haben stets Wert darauf gelegt, dass Werkzeuge und Daten einfach zugänglich sind und im Sinne von FAIR Data genutzt werden können. Und das geschieht nun auch zunehmend.
Anfang September wurde mit JUPITER Europas erster Exascale-Rechner in Jülich in Betrieb genommen. Wie kann die Gehirnforschung von diesem einzigartigen Supercomputer profitieren?
Wir entwickeln gerade „brainfm“, ein sogenanntes Foundation Model eines menschlichen Gehirns auf der zellulären Ebene. „brainfm“ wird deutlich leistungsstärker sein als herkömmliche KI-Modelle. Es soll künftig in der Grundlagenforschung, aber auch in der personalisierten Medizin, eingesetzt werden. Das Modell repräsentiert circa 86 Millionen Nervenzellen und eine ähnlich große Zahl sogenannter Gliazellen, die die Neuronen unterstützen. Und es besitzt eine Auflösung im 1-Mikrometerbereich – also ein Tausendstel Millimeter. Damit umfasst das Modell zwei bis drei Petabyte an Daten – eine riesige Menge. Um solch ein Modell berechnen zu können, braucht es JUPITER. Wir sind sehr froh, dass „brainfm“ zu den ersten 18 Software-Codes gehört, die auf JUPITER laufen. Das hilft uns, zügig in der Forschung voranzukommen.
Dieser Artikel ist Teil der effzett 2/2025. Die Fragen stellte Artur Denning