© reuters Lupe
Gigantisches Datenvolumen
Human Brain Project will Gehirn simulieren
Karlheinz Meier vom Heidelberger Kirchhoff-Institut für Physik muss eine Aufgabe bewältigen, die die Grenze der menschlichen Vorstellungskraft sprengt. Der Co-Direktor des europäischen Human Brain Projects will zusammen mit einem weltweit vernetzten Team von Wissenschaftlern neue Wege gehen beim Versuch, das menschliche Gehirn vollständig zu simulieren.
Mit der Rechenkraft heutiger Supercomputer ist derzeit schon vieles möglich. Doch braucht man dazu immer noch Computer, die ganze Industriehallen füllen. Und selbst dann kann nur ein Teil der gewonnenen Daten sinnvoll analysiert werden. Nach heutigem technologischen Stand würde die vollständige Simulation eines Gehirns wohl Jahrzehnte benötigen. Neben dem Zeitfaktor gibt es bei den binären Rechnern weitere Schwachstellen. Ein Mega-Computer verbraucht mehr als eine Milliarde Watt, um eine Gehirnsimulation zu realisieren. Fällt bei diesen Berechnungen nur ein Bauteil aus, sind große Teile des Systems lahm gelegt.

Die Errichtung künstlicher neuronaler Netze
Großer Zeitverlust und hoher Energieverbrauch sind schlechte Voraussetzungen für die Analyse eines derartigen Datenuniversums. Dabei liegt die Lösung des Problems in der Errichtung künstlicher neuronaler Netze. "Um eine einzelne synaptische Übertragung numerisch zu berechnen, braucht man so etwas wie ein Joule. In unserem Kopf brauchen wir für dieselbe Operation 10 hoch minus 14 Joule. Das sind unglaubliche 14 Nullen hinter dem Komma! Die programmierbaren Computer haben große Probleme, solche Berechnungen durchzuführen. Das System hier verwendet schon mal nur noch 10 hoch minus 10 Joule. Das heißt, es ist immer noch 10.000 mal schlechter als die Biologie, aber um einen riesigen Faktor besser als die klassischen Computer", so Meier.

Für die umfassende Simulation eines Gehirns ist die Energieersparnis eines neuronalen Netzes unabdingbar. Die Konstruktionsweise neuronaler Netze ähnelt der des biologischen Vorbildes immer mehr. Die Physiker nutzen die effiziente Informationsverarbeitung des menschlichen Gehirns. Sie simulieren die Datenübertragung von Neuronen und Synapsen mit Transistor-Schaltungen. Statt langsamerer Ionen fließen in der physikalischen Kopie die schnelleren Elektronen. Die Zellwände werden durch Widerstände nachgeahmt. Eine solche elektrische Schaltung ist die Grundlage für die Informationsverarbeitung des neuromorphen Computers.

Ständiges Dazulernen
Allerdings berechnet dieser Computer keine Formeln. Er speichert Sequenzen einzelner Ereignisse und bündelt sie zu einer Gruppe. Ein neuromorpher Computer assoziiert und lernt ständig dazu. Das macht ihn sehr schnell. "Wir wissen, dass die Lernprozesse in Synapsen mit einer Genauigkeit von etwas mehr als einer Millisekunde ablaufen. Das ist etwas, was sie haben müssen, um über Tage, Monate oder Jahre zu lernen und Entwicklung zu machen. Das aber kann man aus grundsätzlichen Gründen auf konventionellen Computern nicht simulieren. Die einzige Chance, diese verschiedenen Zeitskalen in den Griff zu bekommen, ist es, solche Systeme zu verwenden", so Karlheinz Meier vom Heidelberger Kirchhoff-Institut für Physik.

Das Datenvolumen des Human Brain Projects ist gigantisch. In diesem Meer von Informationen verstecken sich noch viele Muster, die mit konventionellen Algorithmen nur schwer zu finden sind. Ein neuromorpher Computer ist in der Lage, die Daten aus herkömmlichen Computerberechnungen miteinander zu kombinieren. Diese Fähigkeit kann den Wissenschaftlern noch viel mächtigere Analysemöglichkeiten bieten.

Vorhersagen treffen können
"Lern- und Entwicklungsprozesse, alles was langsam ist, können wir auf unserem System ganz besonders gut untersuchen. (…) …und ich glaube, es sind die Lernprozesse, die am Ende das Gehirn wirklich spannend und interessant machen. Es ist nicht so sehr, dass man jetzt einfach nur verstehen möchte, dass es irgendwelche Feuermuster oder Aktivitäten gibt, die ich nachahmen möchte. Das fände ich relativ langweilig. Wenn wir aber verstehen, wie wir aus Daten lernen und dann in der Lage sind, aus diesen Daten Vorhersagen zu machen, dann glaube ich, haben wir einen wesentlichen Schritt vorwärts gemacht", findet Meier.

Für die Heidelberger Physiker ist die Entdeckung unbekannter Muster nicht mehr elementarer Bestandteil ihrer Forschung. Ihre Hardware-Entwicklung ist lernfähig und ehrgeiziger. Sie soll eines Tages nicht nur das Muster erkennbar machen, sondern auch vorhersagen, wann es noch einmal entsteht.

Sendung zum Thema
© reutersBioinformatik
Links